comment tester un ordinateur portable d occasion
TutoSAV Darty - PC de bureau, PC portable : Voici les étapes à suivre pour dépanner un ordinateur qui ne sallume plus Avant denvisager de le porter en réparation ou den acheter un nouveau, nous vous proposons de vérifier certains points qui peuvent expliquer cette situation. Vous trouverez sur cette page les conseils des experts Darty qui pourront vous aider
Anoter que nous procédons nous-mêmes aux tests et réinstallations de nos ordinateurs portables d’occasion reconditionnés. Et cela contrairement aux grands noms du e-commerce tels que Fnac, Darty, Cdiscount, qui font appel à des sous-traitants et ne voient jamais les produits remis en vente. Cela nous permet d’offrir une garantie d’un an sur l’ensemble de nos
LesChromebooks sont des ordinateurs portables, des appareils à écran amovible et des tablettes qui exécutent Chrome OS, un système d'exploitation rapide, intelligent et sécurisé.
Commentvérifier le nombre de cycles de la batterie sous Windows 10. Sur un ordinateur portable Windows, vous pouvez vérifier le nombre de cycles de batterie de votre ordinateur à l'aide d'une commande rapide d'invite de commande. Pour ouvrir l'invite de commandes, cliquez avec le bouton droit sur le bouton Démarrer (ou appuyez sur Win + X
Disponibleà 2 799 € sur Darty. Cet Asus ROG Flow X16 est un savant alliage entre puissance et polyvalence. En l’occurrence, il s’agit d’un PC
Les Meilleurs Sites De Rencontres 100 Gratuit. Un livre de ce qui précède, nous avons abordé divers paramètres, qui sont souvent indiqués lorsque vous achetez un processeur, de la mémoire, ou tout autre composant électronique la finesse de gravure ; le nombre de transistors ; la fréquence ; et la tension d'alimentation. Ces paramètres ont une influence indirecte sur les performances d'un ordinateur, ou sur sa consommation énergétique. Dans ce qui va suivre, nous allons voir comment déduire la performance d'un processeur ou d'une mémoire suivant ces paramètres. Nous allons aussi étudier quel est l'impact de la finesse de gravure sur la consommation d'énergie d'un composant électronique. Cela nous amènera à étudier les tendances de l'industrie. Pour commencer, il faut d'abord définir ce qu'est la performance d'un ordinateur. C'est loin d'être une chose triviale de nombreux paramètres font qu'un ordinateur sera plus rapide qu'un autre. De plus, la performance ne signifie pas la même chose selon le composant dont on parle. La performance d'un processeur n'est ainsi pas comparable à la performance d'une mémoire ou d'un périphérique. La finesse de gravure n'a pas d'impact en elle-même sur la performance ou la consommation d'énergie elle permet juste d'augmenter le nombre de transistors et la fréquence, tout en diminuant la tension d'alimentation. Et ce sont ces trois paramètres qui vont nous intéresser. La performance du processeur[modifier modifier le wikicode] Concevoir un processeur n'est pas une chose facile et en concevoir un qui soit rapide l'est encore moins, surtout de nos jours. Pour comprendre ce qui fait la rapidité d'un processeur, nous allons devoir déterminer ce qui fait qu'un programme lancé sur notre processeur va prendre plus ou moins de temps pour s’exécuter. Le temps d’exécution d'une instruction CPI et fréquence[modifier modifier le wikicode] Le temps que met un programme pour s’exécuter est le produit du nombre moyen d'instructions exécutées par le programme ; de la durée moyenne d'une instruction, en seconde. , avec N le nombre moyen d'instruction du programme et la durée moyenne d'une instruction. Le nombre moyen d'instructions exécuté par un programme s'appelle l'Instruction path length, ou encore longueur du chemin d'instruction en français. Si on utilise le nombre moyen d’instructions, c'est car il n'est pas forcément le même d'une exécution à l'autre. Les processeurs modernes disposent de fonctionnalités appelées branchements qui leur permettent de passer outre certaines sections de code quand elles ne sont pas nécessaires. Par exemple, certaines sections de code ne sont exécutées que si une condition bien spécifique est remplie, grâce à ces branchements. Tout cela deviendra plus clair quand nous aborderons les instructions et les structures de controle, dans un chapitre dédié. Le temps d’exécution d'une instruction peut s'exprimer en secondes, mais on peut aussi l'exprimer en nombre de cycles d'horloge. Par exemple, sur les processeurs modernes, une addition va prendre un cycle d'horloge, une multiplication entre 1 et 2 cycles, etc. Cela dépend du processeur, de l'opération, et d'autres paramètres assez compliqués. Mais on peut calculer un nombre moyen de cycle d'horloge par opération le CPI Cycle Per Instruction. Le temps d’exécution moyen, en seconde, d'une instruction dépend alors du nombre moyen de cycles d'horloge nécessaires pour exécuter une instruction, qu'on notera CPI ce qui est l'abréviation de Cycle Per Instruction ; et de la durée d'un cycle d'horloge, notée P P pour période. Quand on sait que la durée d'un cycle d'horloge n'est autre que l'inverse de la fréquence on peut reformuler en , avec f la fréquence. La puissance de calcul IPC et fréquence[modifier modifier le wikicode] On peut rendre compte de la puissance du processeur par une seconde approche. Au lieu de faire intervenir le temps mis pour exécuter une instruction, on peut utiliser la puissance de calcul, à savoir le nombre de calculs que l'ordinateur peut faire par secondes. En toute rigueur, cette puissance de calcul se mesure en nombre d'instructions par secondes, une unité qui porte le nom de IPS. En pratique, la puissance de calcul se mesure en MIPS Million Instructions Per Second, million de calculs par seconde en français. Plus un processeur a un MIPS élevé, plus il sera rapide un processeur avec un faible MIPS mettra plus de temps à faire une même quantité de calcul qu'un processeur avec un fort MIPS. Le MIPS est surtout utilisé comme estimation de la puissance de calcul sur des nombres entiers. Mais il existe cependant une mesure annexe, utilisée pour la puissance de calcul sur les nombres flottants le FLOPS, à savoir le nombre d'opérations flottantes par seconde. Par définition, le nombre d'instruction par secondes se calcule en prenant le nombre d'instruction exécutée, et en divisant par le temps d’exécution, ce qui donne , avec le temps moyen d’exécution d'une instruction. Sachant que l'on a vu plus haut que , on peut faire le remplacement L'équation nous dit quelque chose d'assez intuitif plus la fréquence du processeur est élevée, plus il est puissant. Par contre, elle ne dépend pas du CPI, mais de son inverse le nombre de calculs qui sont effectués par cycle d'horloge. Celui-ci porte le doux nom d'IPC Instruction Per Cycle. Celui-ci a plus de sens sur les processeurs actuels, qui peuvent effectuer plusieurs calculs en même temps, dans des circuits différents des unités de calcul différentes, pour être précis. Sur ces ordinateurs, l'IPC est supérieur à 1. En remplaçant l'inverse du CPI par l'IPC, on a alors La puissance de calcul est égale à la fréquence multipliée par l'IPC. En clair, plus la fréquence ou l'IPC sont élevés, plus le processeur sera rapide. Cependant, des processeurs de même fréquence ont souvent des IPC différents, ce qui fait que la relation entre fréquence et puissance de calcul dépend fortement du processeur. On ne peut donc pas comparer deux processeurs sur la seule base de leur fréquence. Et si la fréquence est généralement une information qui est mentionnée lors de l'achat d'un processeur, l'IPC ne l'est pas. La raison vient du fait que la mesure de l'IPC n'est pas normalisée et qu'il existe de très nombreuses façons de le mesurer. Il faut dire que l'IPC varie énormément suivant les opérations, le programme, diverses optimisations matérielles, etc. [modifier modifier le wikicode] On vient de voir que le temps d’exécution d'un programme est décrit par la formule suivante , avec f la fréquence. Les équations précédentes nous disent qu'il existe trois moyens pour accélérer un programme diminuer le nombre d'instructions à exécuter ; diminuer le CPI nombre de cycles par instruction ou augmenter l'IPC ; augmenter la fréquence. Voyons en détail ces trois solutions. Diminuer l'instruction path length[modifier modifier le wikicode] L'instruction path length peut varier suivant les données manipulées par le programme, leur taille, leur quantité, etc. Il est possible de le réduire, mais cela demande généralement au programmeur d'optimiser son programme ou un meilleur compilateur. La seule option au niveau matériel est d'améliorer le jeu d'instruction. Cette dernière solution peut s'implémenter facilement. Il suffit de créer des instructions plus complexes, capables de remplacer des suites d'instructions simples il n'est pas rare qu'une grosse instruction complexe fasse exactement la même chose qu'une suite d'instructions plus élémentaires. Par exemple, on peut implémenter des instructions pour le calcul de la racine carrée, de l'exponentielle, des puissances, des fonctions trigonométriques cela évite d'avoir à simuler ces calculs à partir d'additions ou de multiplications. Les programmes qui font alors usage de ces opérations compliquées seront naturellement plus rapides. Cependant, cette solution a des défauts. Par exemple, cela demande d'ajouter des circuits électroniques, qui consomment et chauffent. Mais le principal problème est que les occasions d'utiliser les instructions complexes sont assez rares, ce qui fait que les compilateurs ou programmeurs ne les utilisent pas, même quand elles peuvent être utiles. Cela explique que la mode actuelle est plutôt d'avoir des processeurs avec un nombre limité d'instruction machine très rapides les fameux processeurs RISC. Mieux vaut utiliser des circuits électroniques pour de la mémoire cache, pour des unités de calcul ou ajouter des cœurs que d'implémenter de des instructions inutiles. La seule exception notable tient dans les instructions dites vectorielles, que nous verrons dans les derniers chapitres. De plus, ajouter des instructions complexes est quelque chose qui doit se faire sur le long terme, avec le poids de la compatibilité, ce qui n'est pas sans poser quelques problèmes. Par exemple, un programme qui utiliserait des instructions complexes récentes ne peut pas fonctionner sur les anciens processeurs ne possédant pas ces instructions. Ainsi, on a beau rajouter des tas d'instructions dans nos processeurs, il faut attendre que tout le monde ait un processeur avec ces nouvelles instructions pour les utiliser. Pour donner un exemple très simple à votre avis, sur les nouvelles instructions rajoutées dans chaque nouveau processeur Intel, AMD, ou ARM, combien sont réellement utilisées dans les programmes que vous utilisez ? Combien utilisent les instructions SSE, AVX ou autres extensions récentes ? Très peu. Diminuer le CPI[modifier modifier le wikicode] Il existe différentes solutions pour diminuer CPI. Tout d'abord, on peut concevoir notre processeur de façon à diminuer le temps mis par le processeur pour exécuter une instruction. C'est particulièrement difficile et nécessite de refaire ses circuits, trouver de nouveaux algorithmes matériels pour effectuer une instruction, améliorer son fonctionnement et sa conception, etc. Une autre solution consiste à mieux choisir les instructions utilisées. Comme je l'ai dit plus haut, le CPI est une moyenne certaines instructions sont plus rapides que d'autres. En utilisant de préférence des instructions rapides au lieu d'instructions plus lentes pour faire la même chose, on peut facilement diminuer le CPI. De nos jours, les programmeurs n'ont que très peu d'influence sur le choix des instructions à utiliser les langages de haut niveau comme le C++ ou le Java se sont démocratisés et ont délégués cette tache aux compilateurs qui se débrouillent particulièrement bien, en passant. La dernière solution consiste à exécuter plusieurs instructions à la fois, à augmenter le débit d’instructions. L'idée est d'augmenter l'IPC non pas en jouant sur le temps d'une instruction, mais en exécutant plusieurs instructions durant un même cycle. Ce faisant, on peut augmenter l'IPC, même sans changer le temps que met une instruction à s’exécuter. Les processeurs récents utilisent beaucoup ce genre d'astuce et sont capables d’exécuter plusieurs dizaines, voire centaines d'instructions en parallèle. Une bonne partie de la fin du cours est d'ailleurs dédiée aux techniques qui permettent ce genre de prouesses. Augmenter la fréquence[modifier modifier le wikicode] Augmenter la fréquence demande d'utiliser des composants électroniques plus rapides. Généralement, cela nécessite de miniaturiser les transistors de notre processeur plus un transistor est petit, plus il est rapide. Diminuer la taille des transistors permet de les rendre plus rapides. C'est un scientifique du nom de Robert Dennard qui a découvert un moyen de rendre un transistor plus rapide en diminuant certains de ses paramètres physiques. De plus, la vitesse de transmission des bits dans les fils d'interconnexions est proportionnelle à leur longueur plus ces fils seront courts, plus la transmission sera rapide. Ce qui est clairement un second effet positif de la miniaturisation sur la fréquence. Sachant que la loi de Moore nous dit que le nombre de transistors d'un processeur est multiplié par 2 tous les deux ans, on peut s'attendre à ce qu'il en soit de même pour la fréquence. En réalité, la fréquence ne dépend pas du nombre de transistor, mais de la longueur de leur côté, la finesse de gravure. La loi de Moore dit que les transistors prennent 2 fois moins de place tous les deux ans. Or, les transistors sont réunis sur une surface qui dit diminution par deux de la surface signifie division par de la longueur d'un transistor, de sa finesse de gravure. Ainsi, la finesse de gravure est divisée par tous les deux ans. La fréquence ces processeurs est, en conséquence, multipliée par tous les deux ans, ce qui donne environ 40% de performances en plus tous les deux ans. Du moins, c'est la théorie… En réalité, cette augmentation de 40% n'est qu'une approximation la fréquence effective d'un processeur dépend fortement de sa conception de la longueur du pipeline, notamment et des limites imposées par la consommation thermique. L'évolution de la performance dans le temps[modifier modifier le wikicode] On vient de voir comment quantifier la performance d'un processeur avec sa fréquence, et avec son IPC/CPI. Il va de soi que les nouveaux processeurs sont plus puissants que les anciens. La raison à cela vient des optimisations apportées par les concepteurs de processeurs. La plupart de ces optimisations ne sont cependant possibles qu'avec la miniaturisation des transistors, qui leur permet d'aller plus vite. On a vu plus haut que la vitesse des transistors est proportionnelle à la finesse de gravure. En conséquence, tous deux augmentent de 40 % tous les deux ans elle est multipliée par la racine carrée de deux. Pour cette raison, la fréquence devrait augmenter au même rythme. Cependant, la fréquence dépend aussi de la rapidité du courant dans les interconnexions les fils qui relient les transistors, celles-ci devenant de plus en plus un facteur limitant pour la fréquence. De plus, si la miniaturisation permet d'augmenter la fréquence, elle permet aussi d'améliorer l'IPC et le CPI. Cependant, si l'effet est direct sur la fréquence, il est assez indirect en ce qui concerne le CPI. La loi de Pollack dit que l'augmentation de l'IPC d'un processeur est approximativement proportionnelle à la racine carrée du nombre de transistors ajoutés si on double le nombre de transistors, la performance est multipliée par la racine carrée de 2. En utilisant la loi de Moore, on en déduit qu'on gagne approximativement 40% d'IPC tous les deux ans, à ajouter aux 40 % d'augmentation de fréquence. On peut expliquer cette loi de Pollack assez simplement. Il faut savoir que les processeurs modernes peuvent exécuter plusieurs instructions en même temps on parle d’exécution superscalaire, et peuvent même changer l'ordre des instructions pour gagner en performances on parle d’exécution dans le désordre. Pour cela, les instructions sont préchargées dans une mémoire tampon de taille fixe, interne au processeur, avant d'être exécutée en parallèle dans divers circuits de calcul. Cependant, le processeur doit gérer les situations où une instruction a besoin du résultat d'une autre pour s'exécuter si cela arrive, on ne peut exécuter les instructions en parallèle. Pour détecter une telle dépendance, chaque instruction doit être comparée à toutes les autres, pour savoir quelle instruction a besoin des résultats d'une autre. Avec N instructions, vu que chacune d'entre elles doit être comparée à toutes les autres, ce qui demande N^2 comparaisons. En doublant le nombre de transistors, on peut donc doubler le nombre de comparateurs, ce qui signifie que l'on peut multiplier le nombre d'instructions exécutables en parallèle par la racine carrée de deux. On peut cependant contourner la loi de Pollack, qui ne vaut que pour un seul processeur. Mais en utilisant plusieurs processeurs, la performance est la somme des performances individuelles de chacun d'entre eux. C'est pour cela que les processeurs actuels sont doubles, voire quadruple cœurs ce sont simplement des circuits imprimés qui contiennent deux, quatre, voire 8 processeurs différents, placés sur la même puce. Chaque cœur correspond à un processeur. En faisant ainsi, doubler le nombre de transistors permet de doubler le nombre de cœurs et donc de doubler la performance, ce qui est mieux qu'une amélioration de 40%. La performance d'une mémoire[modifier modifier le wikicode] Toutes les mémoires ne sont pas faites de la même façon et les différences entre mémoires sont nombreuses. Dans cette partie, on va passer en revue les différences les plus importantes. La capacité mémoire[modifier modifier le wikicode] Pour commencer, une mémoire ne peut pas stocker une quantité infinie de données qui n'a jamais eu un disque dur ou une clé USB plein ? Et à ce petit jeu là, toutes les mémoires ne sont pas égales elles n'ont pas la même capacité. Cette capacité mémoire n'est autre que le nombre maximal de bits qu'une mémoire peut contenir. Dans la majorité des mémoires, les bits sont regroupés en paquets de taille fixe des cases mémoires, aussi appelées bytes. De nos jours, le nombre de bits par byte est généralement un multiple de 8 bits ces groupes de 8 bits s'appellent des octets. Mais toutes les mémoires n'ont pas des bytes d'un octet ou plusieurs octets certaines mémoires assez anciennes utilisaient des cases mémoires contenant 1, 2, 3, 4, 7, 18, 36 bits. Les unités de capacité mémoire kilo, méga et gigas[modifier modifier le wikicode] Le fait que les mémoires aient presque toutes des bytes faisant un octet nous arrange pour compter la capacité d'une mémoire. Au lieu de compter cette capacité en bits, on préfère mesurer la capacité d'une mémoire en donnant le nombre d'octets que celle-ci peut contenir. Mais les mémoires des PC font plusieurs millions ou milliards d'octets. Pour se faciliter la tâche, on utilise des préfixes pour désigner les différentes capacités mémoires. Vous connaissez sûrement ces préfixes kibioctets, mébioctets et gibioctets, notés respectivement Kio, Mio et Gio. Préfixe Capacité mémoire en octets Puissance de deux Kio 1024 210 octets Mio 1 048 576 220 octets Gio 1 073 741 824 230 octets On peut se demander pourquoi utiliser des puissances de 1024, et ne pas utiliser des puissances un peu plus communes ? Dans la majorité des situations, les électroniciens préfèrent manipuler des puissances de deux pour se faciliter la vie. Par convention, on utilise souvent des puissances de 1024, qui est la puissance de deux la plus proche de 1000. Or, dans le langage courant, kilo, méga et giga sont des multiples de 1000. Quand vous vous pesez sur votre balance et que celle-ci vous indique 58 kilogrammes, cela veut dire que vous pesez 58 000 grammes. De même, un kilomètre est égal à 1000 mètres, et non 1024 mètres. Autrefois, on utilisait les termes kilo, méga et giga à la place de nos kibi, mebi et gibi, par abus de langage. Mais peu de personnes sont au courant de l'existence de ces nouvelles unités, et celles-ci sont rarement utilisées. Et cette confusion permet aux fabricants de disques durs de nous arnaquer » Ceux-ci donnent la capacité des disques durs qu'ils vendent en kilo, mega ou giga octets l’acheteur croit implicitement avoir une capacité exprimée en kibi, mebi ou gibi octets, et se retrouve avec un disque dur qui contient moins de mémoire que prévu. L'évolution de la capacité suivant le type de mémoire[modifier modifier le wikicode] De manière générale, les mémoires électroniques sont plus rapides que les mémoires magnétiques ou optiques, mais ont une capacité inférieure. La loi de Moore a une influence certaine sur la capacité des mémoires électroniques. En effet, une mémoire électronique est composée de bascules de 1 bit, elles-mêmes composées de transistors plus la finesse de gravure est petite, plus la taille d'une bascule sera faible. Quand le nombre de transistors d'une mémoire double, on peut considérer que le nombre de bascules, et donc la capacité double. D'après la loi de Moore, cela arrive tous les deux ans, ce qui est bien ce qu'on observe pour les mémoires RAM. Évolution du nombre de transistors d'une mémoire électronique au cours du temps. On voit que celle-ci suit de près la loi de Moore. Par contre, les mémoires magnétiques, comme les disques durs, augmentent à un rythme différent, celles-ci n'étant pas composées de transistors. Évolution de la capacité des disques durs mémoires magnétiques dans le temps en échelle logarithmique. Le temps d’accès d'une mémoire[modifier modifier le wikicode] La vitesse d'une mémoire correspond au temps qu'il faut pour récupérer une information dans la mémoire, ou pour y effectuer un enregistrement. Lors d'une lecture/écriture, il faut attendre un certain temps que la mémoire finisse de lire ou d'écrire la donnée ce délai est appelé le temps d'accès, ou aussi temps de latence. Plus celui-ci est bas, plus la mémoire est rapide. Il se mesure en secondes, millisecondes, microsecondes pour les mémoires les plus rapides. Généralement, le temps de latence dépend de temps de latences plus élémentaires, qui sont appelés les timings mémoires. Cependant, tous les accès à la mémoire ne sont pas égaux en termes de temps d'accès. Généralement, lire une donnée ne prend pas le même temps que l'écrire. Dit autrement, le temps d'accès en lecture est souvent inférieur au temps d'accès en écriture. Il faut dire qu'il est beaucoup plus fréquent de lire dans une mémoire qu'y écrire, et les fabricants préfèrent donc réduire le temps d'accès en lecture. Voici les temps d'accès moyens en lecture de chaque type de mémoire Registres 1 nanoseconde 10-9 Caches 10 - 100 nanosecondes 10-9 Mémoire RAM 1 microseconde 10-6 Mémoires de masse 1 milliseconde 10-3 Le débit d'une mémoire[modifier modifier le wikicode] Enfin, toutes les mémoires n'ont pas le même débit binaire. Par débit, on veut dire que certaines sont capables d'échanger un grand nombre de données par seconde, alors que d'autres ne peuvent échanger qu'un nombre limité de données sur le bus. Le débit binaire est la quantité de données que la mémoire peut envoyer ou recevoir par seconde. Il se mesure en en octets par seconde ou en bits par seconde. Évidemment, plus ce débit est élevé, plus la mémoire sera rapide. Il ne faut pas confondre le débit et le temps d'accès. Pour faire une analogie avec les réseaux, le débit binaire peut être vu comme la bande passante, alors que le temps d'accès serait similaire au ping. Il est parfaitement possible d'avoir un ping élevé avec une connexion qui télécharge très vite, et inversement. Pour la mémoire, c'est similaire. D'ailleurs, le débit binaire est parfois improprement appelé bande passante. Dans presque tous les cas, le débit dépend fortement de la fréquence de la mémoire. Or, l'évolution de la fréquence des mémoires suit plus ou moins celle des processeurs, elle double au même rythme. Mais malheureusement, cette fréquence reste inférieure à celle des processeurs. Cette augmentation de fréquence permet au débit des mémoires d'augmenter avec le temps. En effet, à chaque cycle d'horloge, la mémoire peut envoyer ou recevoir une quantité fixe de données. En multipliant cette largeur du bus par la fréquence, on obtient le débit. Par contre, la fréquence n'a aucun impact sur le temps de latence. Le temps de balayage[modifier modifier le wikicode] Le temps de balayage d'une mémoire est le temps mis pour parcourir/accéder à toute la mémoire. Concrètement, il est défini en divisant la capacité de la mémoire par son débit binaire. Le résultat s'exprime en secondes. Le temps de balayage est en soi une mesure peu utilisée, sauf dans quelques applications spécifiques. C'est le temps nécessaire pour lire ou réécrire tout le contenu de la mémoire. On peut le voir comme une mesure du compromis réalisé entre la capacité de la mémoire et sa rapidité une mémoire aura un temps de balayage d'autant plus important qu'elle est lente à capacité identique, ou qu'elle a une grande capacité à débit identique. Généralement un temps de balayage faible signifie que la mémoire est rapide par rapport à sa capacité. Comme dit plus haut, le temps d'accès est différent pour les lectures et les écritures, et il en est de même pour le débit binaire. En conséquence, le temps de balayage n'est pas le même si le balayage se fait en lecture ou en écriture. On doit donc distinguer le temps de balayage en lecture qui est le temps mis pour lire la totalité de la mémoire, et le temps de balayage en écriture qui est le temps mis pour écrire une donnée dans toute la mémoire. La distinction est d'autant plus importante que les cas où on balaye une mémoire en lecture avec les cas où on balaye la mémoire en écriture. Généralement, on balaye une mémoire en lecture quand on veut recherche une donnée bien précise dedans. Par contre, le balayage en écriture correspond surtout aux cas où on veut réinitialiser la mémoire, la remplir tout son contenu avec des zéros afin de la remettre au même état qu'à son démarrage. Un exemple de balayage en écriture est celui d'une réinitialisation de la mémoire, à savoir remplacer le contenu de chaque case mémoire par un 0. Le temps nécessaire pour réinitialiser la mémoire n'est autre que le temps de balayage en écriture. En soi, les opérations de réinitialisation de la mémoire sont plutôt rares. Certains vieux ordinateurs effaçaient la mémoire à l'allumage, et encore pas systématiquement, mais ce n'est plus le cas de nos jours. Un cas plus familier est celui du formatage complet du disque dur. Si vous voulez formater un disque dur ou une clé USB ou tout autre support de stockage, le système d'exploitation va vous donner deux choix le formatage rapide et le formatage complet. Le formatage rapide n'efface pas les fichiers sur le disque dur, mais utilise des stratagèmes pour que le système d'exploitation ne puisse plus savoir où ils sont sur le support de stockage. Les fichiers peuvent d'ailleurs être récupérés avec des logiciels spécialisés trouvables assez facilement. Par contre, le formatage complet efface la totalité du disque dur et effectue bel et bien une réinitialisation. Le temps mis pour formater le disque dur n'est autre que le temps de balayage en écriture. Un autre cas de réinitialisation de la mémoire est celui de l'effacement du framebuffer sur les très vielles cartes graphiques. Sur les vielles cartes graphiques, la mémoire vidéo ne servait qu'à stocker des images calculées par le processeur. Le processeur calculait l'image à afficher et l'écrivait dans la mémoire vidéo, appelée framebuffer. Puis, l'image était envoyée à l'écran quand celui-ci était libre, la carte graphique gérant l'affichage. L'écran affichait généralement 60 images par secondes, et le processeur devait calculer une image en moins de 1/60ème de seconde. Mais si le processeur mettait plus de temps, l'image dans le framebuffer était un mélange de l'ancienne image et des parties de la nouvelle image déjà calculées par le processeur. L'écran affichait donc une image bizarre durant 1/60ème de seconde, ce qui donnait des légers bugs graphiques très brefs, mais visibles. Pour éviter cela, le framebuffer était effacé entre chaque image calculée par le processeur. Au lieu d'afficher un bug graphique, l'écran affichait alors une image blanche en cas de lenteur du processeur. Cette solution était possible, car les mémoires de l'époque avaient un temps de balayage en écriture assez faible. De nos jours, cette solution n'est plus utilisée, car la mémoire vidéo stocke d'autres données que l'image à afficher à l'écran, et ces données ne doivent pas être effacées. Le temps de balayage en lecture est surtout pertinent dans les cas où on recherche une donnée précise dans la mémoire. L'exemple le plus frappant est celui des antivirus, qui recherchent si une certaine suite de donnée est présente en mémoire RAM. Les antivirus scannent régulièrement la RAM à la recherche du code binaire de virus, et doivent donc balayer la RAM et appliquer des algorithmes assez complexes sur les données lues. Bref, le temps de balayage donne le temps nécessaire pour scanner la RAM, si on oublie le temps de calcul. Tous les exemples précédents demandent de scanner la RAM à la recherche d'une donnée précise, et le temps de balayage donne une borne inférieure à ce temps de recherche. Cet exemple n'est peut-être pas très réaliste, mais il deviendra plus clair dans le chapitre sur les mémoires associatives, un type de mémoire particulier conçu justement pour réduire le temps de balayage en lecture au strict minimum. Enfin, on peut aussi citer le cas où l'on souhaite vérifier le contenu de la mémoire, pour vérifier si tous les bytes fonctionnent bien. Il arrive que les mémoires RAM aient des pannes certains bytes tombent en panne après quelques années d'utilisation, et deviennent inaccessibles. Lorsque cela arrive, tout se passe bien tant que les bytes défectueux ne sont pas lus ou écrits. Mais quand cela arrive, les lectures renvoient des données incorrectes. Les conséquences peuvent être très variables, mais cela cause généralement des bugs assez importants, voire des écrans ou de beaux plantages. De nombreux cas d'instabilité système sont liés à ces bytes défectueux. Il est possible de vérifier l'intégrité de la mémoire avec des logiciels spécialisés, qui vérifient chaque byte de la mémoire un par un. Les systèmes d'exploitation modernes incorporent un logiciel de ce genre, comme Windows qui en a un d'intégré. Le BIOS ou l'UEFI de votre ordinateur a de bonnes chances d'intégrer un logiciel de ce genre. Ces logiciels de diagnostic mémoire balayent la mémoire byte par byte, case mémoire par case mémoire, et effectuent divers traitements dessus. Dans le cas le plus simple, ils écrivent une donnée dans chaque byte, avant de le lire si la donnée lue et écrite ne sont pas la même, le byte est défectueux. Mais d'autres traitements sont possibles. Toujours est-il que ces utilitaires balayent la mémoire, généralement plusieurs fois. LE temps de balayage donne alors une idée du temps que mettront ces logiciels de diagnostic pour s’exécuter. La performance des mémoires caches[modifier modifier le wikicode] Ce qui a été dit précédemment vaut aussi pour les mémoires caches, qui ont un débit, une fréquence, un temps de latence et une capacité. Mais l'analyse de la performance des mémoires est cependant plus riche pour les caches que pour les autres mémoires. Pour comprendre pourquoi, il faut savoir que le cache contient une copie de certaines données présentes en RAM. La copie présente dans le cache est accessible bien plus rapidement que celle en RAM, le cache étant beaucoup plus rapide que la RAM. Mais seule une faible partie de ces données sont présentes dans le cache, les autres données devant être lues ou écrites dans la RAM. Tout accès mémoire provenant du processeur est intercepté par le cache, qui vérifie si la donnée demandée est présente ou non dans le cache. Si c'est le cas, la donnée voulue est présente dans le cache on a un succès de cache cache hit et on accède à la donnée depuis le cache. Sinon, c'est un défaut de cache cache miss on est obligé d’accéder à la RAM ou de recopier notre donnée de la RAM dans le cache. L'origine des défauts de cache[modifier modifier le wikicode] Les défauts de cache peuvent avoir plusieurs origines. Tout ce qu'il faut savoir est que lorsque le processeur accède à une donnée ou une instruction pour la première fois, il la place dans la mémoire cache. La raison à cela est qu'un programme a tendance à réutiliser les instructions et données qui ont été accédées dans le passé c'est le principe de localité temporelle. Bien évidement, cela dépend du programme, de la façon dont celui-ci est programmé et accède à ses données et du traitement qu'il fait, mais c'est souvent vrai en général. La première cause des défauts de cache est liée à la taille du cache. À force de charger des données/instructions dans le cache, le cache fini par être trop petit pour conserver les anciennes données. Le cache doit bien finir par faire de la place en supprimant les anciennes données, qui ont peu de chances d'être réutilisées. Ces anciennes données éliminées du cache peuvent cependant être accédées plus tard. Tout prochain accès à cette donnée mènera à un cache miss. C'est ce qu'on appelle un Capacity Cache Miss, ou encore défaut de capacité. Les seules solutions pour éviter cela consistent à augmenter la taille du cache ou à optimiser le programme exécuté voir plus bas. Une autre raison pour un défaut est donc la suivante. Lorsqu'on exécute à une instruction ou qu'on accède à donnée pour la première fois, celle-ci n'a pas encore été chargée dans le cache. Le défaut de cache est inévitable ce genre de cache miss s'appelle un Cold Miss, ou encore un défaut à froid. De tels défauts sont presque impossibles à éliminer, sauf à utiliser des techniques de préchargement qui chargent à l'avance des données potentiellement utiles. Ces méthodes de préchargement se basent sur le principe de localité spatiale, à savoir le fait que les programmes ont tendance à accéder à des données proches en mémoire. Pour donner un exemple, les instructions d'un programme sont placées en mémoire dans l’ordre dans lequel on les exécute la prochaine instruction à exécuter est souvent placée juste après l'instruction en cours sauf avec les branchements. Quand on accède à une donnée ou une instruction, le cache peut précharger les données adjacentes pour en profiter. Nous parlerons de ces techniques de préchargement dans un chapitre dédié, vers la fin du cours. Le taux de succès ou de défauts[modifier modifier le wikicode] Le taux de succès hit ratio est un premier indicateur des performances du cache, mais un indicateur assez imparfait. C'est le pourcentage d'accès mémoire qui ne déclenchent pas de défaut de cache. Plus il est élevé, plus le processeur accède au cache à la place de la RAM et plus le cache est efficace. Certains chercheurs préfèrent utiliser le taux de défauts, à savoir le pourcentage d'accès mémoire qui entraînent un défaut de cache. Plus il est bas, meilleures sont les performances. Le taux de défaut est relié au taux de succès par l'équation . Par définition, il est égal à Plutôt que de comparer le nombre de défauts/succès de cache au nombre d'accès mémoire, il est aussi possible de diviser le nombre de défauts par le nombre total d'instructions. On obtient alors le taux de défauts/succès par instruction, une autre métrique utile. Par définition, elle est égale à Si certains défauts de cache sont inévitables quel que soit le cache, comme les défauts à froids, mentionnés plus haut, d'autres défauts peuvent être évités en augmentant la capacité du cache. C'est le cas des défauts de capacité qui sont causés par un accès à une donnée qui a été éliminée du cache faute de place. Plus le cache est gros, moins il a de chances d'être rempli, moins il doit rapatrier de données, plus son taux de succès augmente. Mais nous reviendrons sur le lien entre taille du cache et taux de défaut plus bas. Le taux de succès ne dépend pas que du cache, mais aussi de la conception des programmes exécutés. Une bonne utilisation du cache ainsi que de la mémoire virtuelle repose sur le programmeur qui doit prendre en compte les principes de localités dès la conception de ses programmes. Par exemple, un programmeur peut parfaitement tenir compte du cache au niveau de son algorithme on peut citer l'existence des algorithmes cache oblivious, qui sont conçus pour être optimaux quelle que soit la taille du cache. Ces algorithmes permettent le plus souvent de gros gains en performances dans la plupart des situations sur les architectures modernes. Le programmeur peut aussi choisir ses structures de données de manière à améliorer la localité. Par exemple, un tableau est une structure de donnée respectant le principe de localité spatiale, tandis qu'une liste chaînée ou un arbre n'en sont pas bien qu'on puisse les implémenter de façon à limiter la casse. D'autres optimisations sont parfois possibles par exemple, le sens de parcours d'un tableau multidimensionnel peut faire une grosse différence. Cela permet des gains très intéressants pouvant se mesurer avec des nombres à deux ou trois chiffres. Je vous recommande, si vous êtes programmeur, de vous renseigner le plus possible sur les optimisations de code ou algorithmiques qui concernent le cache il vous suffira de chercher sur Google. Il y a une citation qui résume bien cela, prononcée par un certain Terje Mathisen. Si vous ne le connaissez pas, cet homme est un vieux programmeur du temps durant lequel on codait encore en assembleur, grand gourou de l’optimisation, qui a notamment travaillé sur le moteur de Quake 3 Arena. Almost all programming can be viewed as an exercise in caching. » — Terje Mathisen La latence moyenne d'un cache[modifier modifier le wikicode] Le temps mis pour lire ou écrire une donnée varie en présence d'un cache. Certaines lectures/écritures vont atterrir directement dans le cache succès tandis que d'autres devront aller chercher leur contenu en mémoire RAM défaut de cache. Dans tous les cas, qu'il y ait défaut ou non, le cache sera consulté et mettra un certain temps à répondre, égal au temps de latence du cache. Tous les accès mémoires auront donc une durée au moins égale au temps de latence du cache, qui sera notée . En cas de succès, le cache aura effectué la lecture ou l'écriture, et aucune action supplémentaire n'est requise. Ce qui n'est pas le cas en cas de défaut le processeur devra aller lire/écrire la donnée en RAM, ce qui prend un temps supplémentaire égal au temps de latence de la mémoire RAM. Un défaut ajoute donc un temps, une pénalité, à l'accès mémoire. Dans ce qui suivra, le temps d'accès à la RAM sera noté . Fort de ces informations, nous pouvons calculer le temps de latence moyen d'un accès mémoire, qui est la somme du temps d'accès au cache pour tous les accès mémoire, multiplié par le temps lié aux défauts. On a alors On voit que plus le taux de succès est élevé, plus le temps de latence moyen sera bas, et inversement. Ce qui explique l'influence du taux de succès sur les performances du cache, influence assez importante sur les processeurs actuels. De nos jours, le temps que passe le processeur dans les défauts de cache devient de plus en plus un problème au fil du temps, et gérer correctement le cache est une nécessité, particulièrement sur les processeurs multi-cœurs. Il faut dire que la différence de vitesse entre processeur et mémoire est tellement importante que les défauts de cache sont très lents alors qu'un succès de cache va prendre entre 1 et 5 cycles d'horloge, un cache miss fera plus dans les 400-1000 cycles d'horloge. Tout ce temps sera du temps de perdu que le processeur aura du mal à mitiger. Autant dire que réduire les défauts de cache est beaucoup plus efficace que d'optimiser les calculs effectués par le processeur erreur courante chez de nombreux programmeurs, notamment débutants. L'impact de la taille du cache sur le taux de défaut et la latence[modifier modifier le wikicode] Il y a un lien entre taille du cache, taux de défaut, débit binaire et latence moyenne. Globalement, plus un cache est gros, plus il est lent. Simple application de la notion de hiérarchie mémoire vue il y a quelques chapitres. Les raisons à cela sont nombreuses, mais nous ne pouvons pas les aborder ici, car il faudrait que nous sachions comment fonctionne un cache et ce qu'il y a à l'intérieur et il vous faudra attendre de nombreux chapitres pour cela. Toujours est-il que la latence moyenne d'un cache assez gros est assez importante. De même, le débit binaire d'un cache diminue avec sa taille, mais dans une moindre mesure. Les petits caches ont donc un gros débit binaire et une faible latence, alors que c'est l'inverse pour les gros caches. D'où l'existence, comme on l'a vu dans le précédent chapitre, d'une hiérarchie de mémoires caches. Une grande capacité de cache améliore le taux de succès, mais cela se fait au détriment de son temps de latence et de son débit, ce qui fait qu'il y a un compromis assez difficile à trouver entre taille du cache, latence et débit. Il peut arriver qu'augmenter la taille du cache augmente son temps d'accès au point d’entraîner une baisse de performance. Par exemple, les processeurs Nehalem d'Intel ont vus leurs performances dans certains jeux vidéos baisser de 2 à 3 %, malgré de nombreuses améliorations architecturales, parce que la latence du cache L1 avait augmentée de 2 cycles d'horloge. Pour résoudre ce problème, les concepteurs de processeur utilisent plusieurs caches au sein d'un processeur certains sont petits mais rapides, d'autres de grande capacité mais lents, avec parfois des caches intermédiaires. Pour avoir une petite idée du compromis à faire, regardons la relation entre taille du cache et taux de défaut. Il existe une relation approximative entre ces deux variables, appelée la loi de puissance des défauts de cache. Elle donne le nombre total de défaut de cache en fonction de la taille du cache et de deux autres paramètres. Voici cette loi , avec et deux coefficients qui dépendent du programme exécuté. Le coefficient est généralement compris entre et guère plus, et varie suivant le programme exécuté. Précisons que cette loi ne marche que si le cache est assez petit par rapport aux données à utiliser. Pour un cache assez gros et des données très petites, la relation précédente est mise en défaut. Pour s'en rendre compte, il suffit d'étudier le cas extrême où toutes les données nécessaires tiennent dans le cache. Dans ce cas, il n'y a qu'un nombre fixe de défauts de cache autant qu'il faut charger de données dans le cache. Le nombre de défauts de cache observé dans cette situation n'est autre que le coefficient de la situation précédente, mais il n'y a aucune dépendance entre taux de défaut et taille du cache. L'origine de cette relation s'explique quand on regarde combien de fois chaque donnée est réutilisée lors de l’exécution d'un programme. La plupart des données finissent par être ré-accédées à un moment ou un autre et il se passe un certain temps entre deux accès à une même donnée. Sur la plupart des programmes, les observations montrent que beaucoup de réutilisations de données se font après un temps très court et qu'inversement, peu de ré-accès se font après un temps inter-accès long. Si on compte le nombre de réutilisation qui ont un temps inter-accès bien précis, on retrouve une loi de puissance identique à celle vue précédemment , avec t le temps moyen entre deux réutilisations. Le coefficient est ici compris entre et De manière générale, les coefficients et sont reliés par la relation , ce qui montre qu'il y a un lien entre les deux relations. Précisons cependant que la loi de puissance précédente ne vaut pas pour tous les programmes informatiques, mais seulement pour la plupart d’entre eux. Il n'est pas rare de trouver quelques programmes pour lesquels les accès aux données sont relativement prédictibles et où une bonne optimisation du code fait que la loi de puissance précédente n'est pas valide. La loi de puissance des défauts de cache peut se démontrer à partir de la relation précédente, sous certaines hypothèses. Si un suppose que le cache est assez petit par rapport aux données, alors les deux relations sont équivalentes. L'idée qui se cache derrière la démonstration est que si le temps entre deux accès à une donnée est trop long, alors la donnée accédée aura plus de chance d'être rapatriée en RAM, ce qui cause un défaut de cache. La chance de rapatriement dépend de la taille du cache, un cache plus gros peut conserver plus de données et a donc un temps avant rapatriement plus long. La performance des entrées-sorties[modifier modifier le wikicode] Pour une entrée-sortie, la mesure de la performance dépend énormément du composant en question. Par exemple, on ne mesure pas la vitesse d'un disque dur de la même manière que celle d'un écran. Nous aborderons plus en détail les mesures de performances des différents périphériques dans les chapitres adéquats. Cependant, on peut donner le principe de base, valable en théorie pour tous les périphériques. Pour tous les périphériques, on peut mesurer le débit binaire, à savoir la quantité de données que celui-ci transmet à l'ordinateur par secondes. Le débit binaire d'un périphérique est le produit de deux facteurs le nombre d'opérations d'entrée-sortie par secondes, et la taille des données échangée par opération. Ces opérations d'entrée-sortie correspondent chacune à un échange de données entre le périphérique et le reste de l'ordinateur, via le bus. Cela peut se résumer par la formule suivante , avec D le débit binaire, IOPS le nombre d'opérations disque par secondes, et T la quantité de données échangée lors d'une opération d'entrée-sortie. Augmenter la taille des données transmises augmente donc le débit, mais cette technique est rarement utilisée. Les bus ne sont extensibles à l'infini. À la place, la majorité des périphériques incorpore diverses optimisations pour augmenter l'IOPS, ce qui permet un meilleur débit pour une taille T identique.
Le 29/11/2009 à 2247 20660321 paul acheter d'occasion = loterie ? Je me demande qu'est-ce qu'on peut mettre sur une clé USB qui permette de faire un diagnostic rapide et clair ? Il y a peut-être mieux à faire ? Merci pour vos conseils ! Ben, déjà, ça s'rait bien que tu précises, hein ? Portable, machine de bureau ? Certaines machines sont connues pour avoir des "défaillances", regarder donc de ce côté là... Ensuite, état général, date d'achat, garantie ou non, essayer la machine, etc - Alex Vous avez beau dire, y'a pas seulement que de la pomme, y'a aut'chose. Ça serait pas des fois de la betterave, hein ? Mac Larinett Le 30/11/2009 à 0919 20661621 In article paul Bonjour, acheter d'occasion = loterie ? Je me demande qu'est-ce qu'on peut mettre sur une clé USB qui permette de faire un diagnostic rapide et clair ? Rember pour tester la mémoire Pixel Check pour l'écran Éric Lévénez Le 30/11/2009 à 1258 20663181 Mac Larinett a écrit In article paul Bonjour, acheter d'occasion = loterie ? Je me demande qu'est-ce qu'on peut mettre sur une clé USB qui permette de faire un diagnostic rapide et clair ? Rember pour tester la mémoire Pixel Check pour l'écran Il y a aussi le CD de test matériel fourni avec chaque Mac. - Éric Lévénez - Unix is not only an OS, it's a way of life. Pucud Le 01/12/2009 à 1908 20672371 Éric Lévénez wrote .../... Il y a aussi le CD de test matériel fourni avec chaque Mac. Meme pour le G4/400 AGP ? ... je serais preneur... ** cix ** mloiseau Le 01/12/2009 à 1921 20672431 Pucud Meme pour le G4/400 AGP ? ... je serais preneur... ** cix ** Ça peut s'trouver, ça. - Un blog inutile qui est bien utile. Cette option est réservée aux membres de GNT. Merci de vous inscrire, c'est gratuit !. Cette option est réservée aux membres premium de GNT. Pour en savoir plus, cliquez ici.
Venez découvrir notre large gamme d'ordinateurs portables reconditionnés qui répond à vos différents besoins pc portable pas cher, bureautique ou encore gaming. Nous vous proposons des pc portables reconditionnés de grands fabricants tels que Lenovo avec sa gamme Lenovo ThinkPad comprenant le fameux ThinkPad T440. DELL avec sa gamme Dell Latitude notamment le Latitude E7270. HP avec ses gammes HP Elitebook et HP Probook. Fujitsu avec sa gamme Fujitsu Lifebook. Apple avec ses iPad reconditionnés et Microsoft avec ses Surface reconditionnées qui peuvent faire office de pc portables lorsqu'ils sont rattachés à un clavier. AfB Shop vous propose un large panel dans le choix des caractéristiques techniques de votre pc portable reconditionné Taille d'écran s'adaptant à vos besoins entre 10,2 pouces et 15,6 pouces. Mémoire vive entre 4 GO et 16GO. Processeur Intel Core i ou Intel Core m mais aussi du Intel Xeon. Génération du processeur de la 4ème à la 10ème. Stockage entre 128GO et 500GO disponibles en HDD, SDD ou en Hybride. Sur la plupart de nos ordinateurs portables pas cher, nous disposons d'un système de personnalisation vous pouvez upgrader votre appareil avec de la mémoire vive ou du stockage. Ajoutez également certains de nos accessoires à votre panier, le tout en un clic. Que faut-il prendre en compte lors de l'achat d'un ordinateur portable reconditionné d'occasion ? Nous vous recommandons de vous procurer des ordinateurs reconditionnés de qualité auprès d'un revendeur spécialisé. Chez AfB France, le reconditionnement est l’équivalent d’une remise à neuf et de nombreux tests sur les appareils sont effectués. Voici quelques conseils si vous ne voulez pas avoir de mauvaises surprises lors de l'achat d'un ordinateur portable reconditionné. Pour en savoir plus, consultez notre guide. Acheter chez un spécialiste lorsque vous achetez un ordinateur portable d'occasion à un particulier, il n'y a aucune garantie que l'ordinateur fonctionnera correctement. De plus, l'achat est assez risqué en raison de l'absence de droit de rétractation. Il est donc conseillé d'acheter des pc portables reconditionnés dans un magasin spécialisé réputé, avec une garantie légale 12 mois minimum. Contrairement à la plupart des vendeurs privés, les revendeurs spécialisés remettent à neuf les pc portables d'occasion et en vérifient la qualité avant la vente. Quelles marques d'ordinateurs portables puis-je acheter reconditionnés sans soucis ? Les ordinateurs portables de gamme professionnelle se caractérisent par des matériaux de haute qualité et d'une grande durabilité. Les principales marques proposées par AfB sont HP, Fujitsu, DELL, Microsoft, Lenovo et Apple. Un ordinateur portable professionnel neuf sera certainement plus cher qu'un appareil grand public neuf. C'est pourquoi nous vous recommandons d'acheter des ordinateurs portables professionnels remis à neuf. Un ordinateur portable professionnel reconditionné de Grade A+ excellent état sera une bonne option. Vous pouvez donc acheter des ordinateurs portables professionnels pas cher de haute qualité. Si vous avez besoin d'un ordinateur portable de travail durable et solide, vous ne pouvez pas vous tromper en choisissant un pc portable reconditionné et de haute qualité doté d’une garantie. Quelles sont les différences de prix et de qualité des ordinateurs portables remis à neuf ? Pour garantir la qualité durable de nos produits, nous sélectionnons l'état des pc portables reconditionnés qui vous sont proposés. Nous vendons nos ordinateurs reconditionnés en 3 grades différents - Grade A+ Excellente qualité - difficilement distinguable des produits neufs. - Grade A Ils sont en très bon état technique mais montrent parfois de légers signes d'utilisation antérieure. - Grade B Ils sont en très bon état technique mais présentent des traces évidentes d'utilisation antérieure. En tant que revendeur spécialisé dans les ordinateurs portables reconditionnés, la satisfaction du client est notre priorité absolue. C'est pourquoi vous bénéficiez d'une garantie de 12 mois pour chaque ordinateur portable remis à neuf, qui peut être étendue à 24 mois. Quel ordinateur reconditionné convient pour les études et le travail ? Les clients soucieux des prix comme les étudiants se tournent souvent vers des ordinateurs portables pas cher. Les caractéristiques importantes pour eux sont le poids et la taille de l'ordinateur ainsi que la durée de vie de la batterie. En outre, une attention particulière est accordée aux dispositifs particulièrement légers pour les transports fréquents. Conseil les ordinateurs portables reconditionnés équipés d'une batterie facilement remplaçable ont l'avantage de permettre à son propriétaire de la remplacer facilement et sans outils après quelques années. Nous proposons des ordinateurs portables reconditionnés de haute qualité pour les étudiants à des prix abordables. Les étudiants recherchent des ordinateurs portables à faible consommation d'énergie et des ordinateurs ortables pas cher. Un processeur Intel Core i5 est tout à fait suffisant. Si vous êtes souvent sur la route, vous avez besoin d'un ordinateur portable fiable au niveau de la batterie et facile à utiliser. Les ordinateurs portables d'un poids maximum de 2 kg offrent une puissance et une vitesse suffisantes pour travailler en déplacement. Quel matériel remis à neuf convient aux organismes à but non lucratif, aux écoles et aux entreprises ? Les institutions à but non lucratif, les organisations à but non lucratif, les écoles et les entreprises peuvent acheter du matériel informatique reconditionné, des accessoires informatiques ou encore des logiciels neufs, à des conditions particulièrement avantageuses. Pour en savoir plus, découvrez notre page association et notre page btob. Que dois-je prendre en compte concernant la durée de vie de la batterie des ordinateurs portables reconditionnés ? L'autonomie de la batterie d'un ordinateur portable reconditionné diminue au fil des années. La durée de vie de la batterie est déterminée par trois facteurs principaux l'usage qu'en fait son utilisateur, sa consommation en énergie et sa capacité de charge. - L'usage de l'ordinateur Si vous évitez les applications particulièrement énergivores telles que les jeux vidéo ou certains logiciels de rendus, votre batterie vous en remerciera. - Consommation d'énergie la réduction de la luminosité de l'écran et l'arrêt des fonctions qui ne sont pas utilisées actuellement prolongent considérablement la durée de vie de la batterie de votre ordinateur. Le Wifi et le Bluetooth peuvent être désactivés de façon permanente en passant en mode avion. - Capacité de charge La capacité de charge maximale est indiquée en watts-heures. Plus elle est élevée, plus une batterie peut stocker d'énergie. La capacité de charge d'une batterie diminue avec le nombre de cycles de charge et l'âge. Qu'est-ce qu'un ordinateur portable reconditionné / remis à neuf ? Un ordinateur portable reconditionné ou remis à neuf est un ordinateur portable qui a été utilisé pendant un certain temps par un propriétaire précédent, c'est-à-dire qui est d'occasion. Chez AfB, nous voulons faire une bonne action pour l'environnement par le biais du reconditionnement informatique, c'est pourquoi nous remettons à neuf les ordinateurs portables d'occasions des fabricants de grandes marques. Après une remise en état, la vérification de nombreux points de contrôle , nous les vendons sur notre site internet ou dans nos magasins. Grâce au reconditionnement informatique, nous apportons une contribution précieuse à la réduction de CO2 et aux économies de ressources. En savoir plus sur nos valeurs ! Comment remettre à neuf un ordinateur portable ? Tous les clients ne réalisent pas qu'un ordinateur portable mis au rebut mérite une seconde vie. En tant que revendeur informatique certifié, nous remettons à neuf les ordinateurs portables d'occasion. Cela signifie que nous révisons, nettoyons et inspectons les ordinateurs portables usagés avant et après leur reconditionnement. Ce sont toujours des ordinateurs portables professionnels. La plupart des entreprises renouvellent leurs parc informatique tous les deux à quatre ans et ce sont précisément ces ordinateurs qui nous intéressent. Les ordinateurs portables d'occasion passent par plusieurs étapes jusqu'à ce que le processus de remise à neuf soit terminé. Une inspection professionnelle de la fonctionnalité complète supports de données, batterie et autres matériels par nos techniciens professionnels ainsi qu'un nettoyage intensif et une mise à niveau intensifs et approfondis, en sont les principaux éléments. Après un reconditionnement professionnel, il est difficile de distinguer un ordinateur portable d'occasion d'un ordinateur neuf hormis son aspect physique. Quel ordinateur portable reconditionné est adapté au Gaming ? Les ordinateurs portables reconditionnés sont pour la plupart des ordinateurs portables professionnels qui ne conviennent qu'à des jeux simples. La raison une puissante carte graphique de jeu n'est généralement pas disponible sur ce type d’appareil. Les stations de travail graphiques équipées d'une carte graphique Nvidia Quadro ou AMD FirePro conviennent également aux applications graphiques exigeantes dans un environnement professionnel et souvent aussi pour des jeux. Vérifiez à l'avance si les performances de la carte graphique correspondent à votre bibliothèque de jeux. Qu'en est-il du prix des ordinateurs portables reconditionnés? Les ordinateurs portables reconditionnés sont généralement 30 à 70% moins chers que des ordinateurs portables neufs. Grâce au reconditionné vous pouvez bénéficier de pc portables pas chers à partir de 150€. Besoin d'avantage de conseils ? Découvrez notre Page Guide & Outils.
Guide d'achat Voici à quoi vous devez faire attention si vous achetez un écran d'ordinateur 25 mars 2020 25 mars 2020 Le confinement pour cause de coronavirus vous a peut-être contraint au télétravail. Mais l'écran de votre ordinateur portable n'est guère confortable, il est un peu petit pour travailler efficacement. Vous pensez acheter un second moniteur ? A priori, rien ne ressemble plus à un écran d’ordinateur... qu’un autre écran d’ordinateur ! Pourtant, ils peuvent se différencier à de nombreux points de vue. Voici comment faire le bon choix. Il faut déterminer dans un premier temps quel sera son usage principal la bureautique de base et internet ? Le visionnage de films ? Les jeux vidéo ? L’édition photo ou vidéo ? Ces activités différentes requièrent idéalement de tenir compte d’une série de caractéristiques techniques définition, temps de réponse ou réactivité, luminosité, contraste, reproduction des couleurs, angle de vision, fréquence de rafraîchissement, toutes liées à la technologie de l’écran la “dalle”. S’ajoutent ensuite des critères comme la diagonale et le format de l’écran, ses possibilités de réglage et de connection. Définition et format d'écran La multiplication des deux valeurs horizontale x verticale fournies par le constructeur donne le nombre de pixels de l’écran, c'est-à-dire sa définition couramment et à tort appelée résolution. Plus ce nombre est élevé, plus l’affichage sera détaillé. La répartion horizontale/verticale donne le format de l’écran. Les formats d’origine de 4/3 et 5/4 sont actuellement supplantés par le 16/9 et le 16/10. Temps de réponse C’est la mesure en millisecondes du temps requis pour qu’un pixel passe du noir au blanc puis revienne au noir. Moins élevée est cette valeur, plus l’écran est dit réactif et plus il est susceptible de convenir à un adepte des jeux vidéos. Cette caractéristique n’est cependant pas importante pour un usage bureautique. Luminosité / Contraste Il s’agit ici de l’intensité lumineuse maximale en candela par mètre carré ou cd/m² émise par l’écran. Les valeurs usuellement mesurées varient de 200 à 400 cd/m². Une valeur élevée garantira une image bien lisible même dans une pièce fortement éclairée. Le contraste s’exprime quant à lui par le rapport entre la luminosité d’un écran totalement blanc et celle d’un écran totalement noir. On mesure généralement des valeurs comprises entre entre 600 et 1000 pour des moniteurs grand public. Reproduction des couleurs Un écran ne peut reproduire qu’un certain nombre de couleurs. Plus ce nombre est élevé, plus la reproduction des images est riche. On mesure l’espace colorimétrique des écrans en le comparant à l’espace normé sRGB. Le résultat est exprimé en % de cette norme. Plus ce dernier est élevé, plus riche est la palette de couleurs disponibles. Angle de vision Idéalement, un écran devrait rester parfaitement lisible si on l’observe sous un angle horizontal ou vertical prononcé. Malheureusement ce n’est pas toujours le cas et avec certains types d’écran on assiste à une dégradation rapide de la qualité de l’image luminosité, contraste et/ou couleurs. Fréquence de rafraîchissement Il s’agit du nombre d’image affichées en une seconde exprimé en Hz. Les valeurs habituelles sont de 50 ou 60 Hz. Sur les moniteurs LCD à usage généraliste, ces valeurs sont suffisantes pour garantir une image stable. Elles sont cependant trop faibles aux yeux des gamers convaincus, pour lesquels cette caractéristique est très importante. Les différents types de dalles Les fabricants font principalement appel à 3 types de dalles ou à des variantes de ces dernières. TN Twisted Nematics c’est la version la plus ancienne et, jusqu’à récemment, la plus courante. Elle se caractérise par un excellent temps de réponse mais elle ne brille généralement pas ni par son contraste ni son angle de vision. Les moniteurs PC premier prix font encore souvent appel à ce type d’écran. IPS In Plane Switching au contraire de la précédente, une dalle IPS offre un très large angle de vision et son temps de réponse, au départ médicocre, est maintenant correct. Les couleurs sont précisément reproduites. Cette technologie couvre maintenant une part importante du marché. A diagonale d’écran égale, le prix des moniteurs IPS est équivalent ou légèrement supérieur à celui des écran TN. VA Vertical Alignment cette dalle, un peu plus chère que les précédentes, brille surtout par son contraste très élevé, un bon rendu des couleurs et un large angle de vision. OLED Organic LED ces écrans, encore actuellement très coûteux, ne font plus appel à un système de rétroéclairage mais bien à des sources de lumière en LEDs organiques pour chaque pixel de l’image. Ils offrent des noirs profonds, des couleurs fidèles et un temps de réponse quasi-instantané mais on leur reproche parfois un certain manque de luminosité. Diagonale et format d'écran Il s’agit ici d’un choix laissé à l’appréciation de l’utilisateur et/ou de son budget ainsi qu’à l’usage et à l’espace disponible pour l’installer. Cette dimension est exprimée en pouces 1“ = cm. Une dimension de 24 ou 27” 60 ou 69 cm est souvent choisie par les utilisateurs lambda. Il existe aussi des écrans nettement plus grands ou incurvés, en général plutôt utilisés par les gamers. Connectique Selon son âge, ses performances et son prix, un écran peut recevoir l’image du PC par l’intermédiaire d’une connectique très variée. Connecteur VGA Video Graphics Array il s’agit d’un ancêtre... Ce connecteur analogique est encore présent sur certains ordinateurs mais, obsolète, disparait rapidement. Connecteur DVI Digital Video Interface ce dernier existe en plusieurs déclinaisons permettant des définitions et des performances de plus en plus élevées. Il existe même une version permettant une connexion analogique DVI-A, laquelle tend également à disparaître. Connecteur HDMI High Definition Multimedia Interface c’est actuellement “la bonne à tout faire”. On le trouve sur la plupart des ordinateurs récents. Il en existe deux versions HDMI qui suffit pour la plupart des utilisateurs et HDMI moins répandu, qui permet de meilleures performances vidéo définition et taux de rafraîchissement. Connecteur DisplayPort / Mini DisplayPort ils équipent de nouveaux ordinateurs ou appareils et permettent des performances encore supérieures au HDMI . Connecteur USB ou USB C vu la prolifération actuelle des appareils munis d’une prise USB C réversible très pratique, cette connexion connaît un franc succès. Connecteurs Thunderbolt 1,2 ou 3 principalement utilisés par Apple, la dernière version Thunderbolt 3 est associée à un connecteur USB C et offre des performances supérieures à la norme USB C. Equipement Il n’est pas rare de passer beaucoup de temps devant son écran d’ordinateur. Il importe donc de pouvoir l’installer de façon à pouvoir l’utiliser confortablement. Deux réglages devraient être idéalement présents pour garantir ce confort un pied réglable en hauteur et la possibilité d’incliner l’écran vers l’arrière. Certains écrans sont équipés de prises USB additionnelles, pratiques pour y connecter facilement l’un ou l’autre périphérique ou servir de docking station pour un ordinateur portable, si l’on y raccorde à demeure une souris, un clavier, etc.
By in Conseils & Astuces Contents1 Comment prendre une photo avec un ordinateur portable?2 Comment prendre une photo avec son PC Windows 7?3 Comment se prendre en photo avec son ordinateur portable Acer?4 Comment se prendre en vidéo avec son ordinateur portable?5 Comment prendre une photo avec la caméra de l’ordinateur?6 Comment prendre une photo avec un ordinateur?7 Comment ouvrir Webcam Windows 7?8 Comment tester sa webcam sur Windows 7?9 Comment activer sa webcam intégré Windows 7?10 Comment utiliser la caméra de l’ordinateur?11 Comment activer la caméra sur un PC portable Acer?12 Comment prendre de bonnes photos?13 Comment enregistrer une vidéo avec son PC?14 Comment faire une vidéo sur l’ordinateur?15 Comment utiliser la webcam d’un ordinateur portable? Vous voulez prendre une photo de votre écran d’ordinateur pour l’envoyer par mail à un ami, ou simplement la sauvegarder? C’est très simple et ça ne prend que quelques secondes Il suffit d’appuyer sur la touche “Impr écran Syst” ou “Imp écran” située en haut à droite de votre clavier. Sous Windows 7, démarrez Menu -> Exécuter, tapez ” webcam ” ou “appareil photo ” et vous devriez voir le logiciel associé à l’appareil photo fourni avec votre PC. Cliquez sur le logiciel et cela vous permettra de prendre une photo. Double- cliquez sur l’icône Webcam». Vous verrez un flux vidéo en direct depuis la caméra. Une fois que vous avez fait l’objet que vous voulez dans le cadre, appuyez sur le bouton Prendre une photo » au bas de la fenêtre. L’ image sera enregistrée dans votre dossier Webcam». L’application Caméra intégrée à Windows 10 peut aussi être utilisée pour enregistrer des vidéos à l’aide de la webcam de votre PC. Lancez l’application Caméra, et cliquez sur l’icône de caméra à droite de la fenêtre pour passer en mode vidéo. Cliquez sur le logo de Windows qui se trouve dans le coin inférieur gauche de l’écran. Tapez caméra dans la barre de recherche du menu Démarrer. Cette action effectuera une recherche de l’application Caméra sur votre ordinateur, ce qui vous permettra de prendre une photo avec n’importe quelle webcam installée. Il suffit d’appuyer sur la touche “Impr écran Syst” ou “Imp écran” située en haut à droite de votre clavier. Ouvrez ensuite le logiciel “Paint” de votre ordinateur en allant dans le menu “Démarrer” en bas à gauche de l’écran. Une fois le programme ouvert, appuyez sur le bouton “Coller” en haut à gauche de la page. Pour allumer la webcam il faut cliquer en même temps sur la touche F7 et Fn qui se trouve à coté de celle de Ctrl en bas à droite du clavier La webcam s’allumera. Pour tester la webcam avec Cyberlink YouCam, ouvrez l’application logicielle. Sous Windows, recherchez et ouvrez YouCam ou cliquez sur l’icône de YouCam sur votre bureau. Cliquez sur le bouton Démarrer puis sur Panneau de configuration. Cliquez sur Matériel et audio. Cliquez ensuite sur Gestionnaire de périphériques dans la rubrique Périphériques et imprimantes. Déroulez la rubrique Périphérique d’acquisition d’images afin de faire apparaît votre webcam. Pour autoriser votre appareil à accéder à la caméra, sélectionnez Démarrer, puis Paramètres > Confidentialité > Caméra. Dans Autoriser l’accès à la caméra sur cet appareil, si l’accès à l’appareil photo pour cet appareil est désactivé, sélectionnez Modifier et activé l’accès à la caméra pour cet appareil. Cliquez sur “Démarrer”. Cliquez sur ” Tous les programmes “. Ouvrez le dossier ” Crystal Eye Webcam “. Cliquez sur ” webcam Acer Crystal Eye ” pour lancer le logiciel de webcam et allumer l’appareil photo. Comment prendre une photo parfaite? Tenez votre appareil correctement. Utilisez vos deux mains pour tenir votre appareil photo. Ayez une posture stable. Avant de prendre une photo, il est important de prendre une posture stable. Posez vos bras pour plus de soutien. Gardez les bras le long du corps. Détendez vous avant de prendre une photo. Enregistrer le flux de sa webcam – VLC Lancez VLC. Cliquez sur le menu Media puis sur Convertir / Enregistrer. Ouvrez l’onglet Périphérique de capture. Déroulez la liste Nom du périphérique vidéo et sélectionnez votre webcam. Déroulez ensuite la liste Nom du périphérique audio et sélectionnez votre micro. Cliquez alors sur le bouton Convertir / Sauvegarder. Pour démarrer l’enregistrement, cliquez sur REC. Pendant que vous enregistrez, trois raccourcis clavier peuvent vous être très utiles. Il est parfois nécessaire de réaliser une capture d’écran appuyez sur F8. Avec F9, vous pourrez faire une pause puis reprendre l’enregistrement là où vous l’avez laissé. Comment allumer sa webcam intégrée à un PC portable? Allez dans le menu démarrer », puis cliquez sur Tous les programmes » Cherchez le dossier Asus utilities » Le logiciel LifeFrame s’y trouve. Lancez-le, et votre webcam se lancera automatiquement.
comment tester un ordinateur portable d occasion