TUTO - Optimiser son SSD

Retrouvez ici les sites WEB et liens utiles pour vous et votre ordinateur :)
Avatar de l’utilisateur
pattos
Messages : 637
Inscription : 24 déc. 2009 13:31
Localisation : Perpignan

Re: TUTO - Optimiser son SSD

par pattos »

Bonjour,

C'est la même chose pour les SSD M.2 NVMe ?

Merci
Lenovo 320S-14IKB - i3 7100U - 14" - 2,40 GHz 8 GB RAM DDR4 - 2400 MHz - 1 To (WD10SPZX-00HKTT0 5400 tr/min) + 512 Go (SSD Sabrent Rocket 2280 M.2 PCI-e 3.0 x4) - (01.2018-) Windows 10 Pro x64 v. 21H1 - Google Chrome/Mozilla Firefox
Anthony
Avatar de l’utilisateur
Parisien_entraide
Messages : 9761
Inscription : 02 juin 2012 20:48
Localisation : Je suis dans la matrice :-)

Re: TUTO - Optimiser son SSD

par Parisien_entraide »

Bonjour,

NON

Il n'y a pas de contrôleur série 2000
Je sais qu'il y a quelques années en M2 NVME Sandforce avait sorti la série 3000 dont les SF3500, SF3700 mais depuis je ne sais
Only Amiga... was possible !
Un problème sans solution est un problème mal posé. » (Albert Einstein)
"Tous les patients mentent" Docteur House
Avatar de l’utilisateur
Parisien_entraide
Messages : 9761
Inscription : 02 juin 2012 20:48
Localisation : Je suis dans la matrice :-)

Re: TUTO - Optimiser son SSD

par Parisien_entraide »

Dans le dernier Hardware MAG, (N°° 109 de décembre/janvier)

"Quel SSD pour votre PC Gamer ? Sata vs PCI 3.0 vs PCI 4.0


Seul bémol, qui n'est pas indiqué, c'est que certains,encore récemment, NVMe prévus pour du PCIe 4.0 sortaient avec un protocole NVMe en 1.3c (même la 1.3d n'était pas adoptée alors que sortie au premier trimestre 2018)
alors que l'avantage du protocole 1.4 :

"Le cache des SSD est revu aussi et dispose d'une nouvelle fonction : le PMR - Persistante Memory Region - dont le but est de faire des transferts de données directs via le PCIe sans devoir faire passer les informations par le processeur. En gros, les données sont traitées directement depuis le cache du SSD, réduisant la latence et surtout le nombre d'écritures persistantes sur la mémoire flash, permettant d'augmenter l'endurance des SSD utilisés dans les serveurs ou pour les OS."

Dans les "petites" optimisations que l'on retrouve, il y a une amélioration de la latence prévisible pour éviter que les opérations de fond réalisées par le SSD - TRIM, Garbage Collector - ne soient gênantes lorsque votre système demandera à réaliser une opération d'écriture/lecture/effacement sur le SSD."

Aux vues des SSD testés, il faudrait s'en assurer en fait


Je passe sur le protocole, support et choix des SSD, (qui a son incidence) mais je ne vais pas retaper l'article :
Néanmoins

Se rappeler que pour l'instant le PCIe 4 n'est accessible que sur plate forme AMD et Rezyzen 3000, et 5000 équipés d'une carte mère B550 ou X570


Tests en PCIe 4.0 : Corsait MP600 1 To et Seagate FireCuda 520 de 1 To
Tests en PCIe 3.0 : Corsair MP510 960Go, Corsair MP400 4 To, Crucial P1 de 1 TO et Samsung 960 EVO
Tests en SATA : Crucial BX500 500Go, Crucial MX 500 1 To, Samsung 860 Pro

Le test du disque dur a été effectué avec un WD RED 4 To (choix de nombre d'utilisateurs, car qui achète encore un WD Black en 2020 à l'ère du SSD ? (sic)


Boot de Windows 10

PCI 4.0 Nvme : 11.7

PCI 3.0 NVme : 12.7

SATA SSD : 14.4 (sur un Win7 PC de 2013 Sandy Bridge et SATA perso j'ai 12.2)


SATA HD en 5 400Tpm : 23.6




JEU BATTLFIEDD V (mais pour les autres jeux c'est presque à l'identique)



PCI 4.0 Nvme : 17.3

PCI 3.0 NVme : 17.4

SATA SSD : 18.2

SATA HD en 5 400Tpm : 24.5



Il y a eu 7 jeux testés, et il est possible de voir une différence dans "The Division 2" de 6 s entre du SATA SSD et du PCI4 NVme, et de 3 s entre du PCI3 Nvme et PCI 4 Nvvme (idem pour Horizon Zero Dawn)
Aucune différence flagrante par contre sur Red Dead Redemtion 2 ( 1 sec d'écart chacun)
Only Amiga... was possible !
Un problème sans solution est un problème mal posé. » (Albert Einstein)
"Tous les patients mentent" Docteur House
Avatar de l’utilisateur
Parisien_entraide
Messages : 9761
Inscription : 02 juin 2012 20:48
Localisation : Je suis dans la matrice :-)

Re: TUTO - Optimiser son SSD

par Parisien_entraide »

Pour compléter ce qui précède et en revenant aux sources : (sources Kingston, et Mag hardware magazine)


Rappel :

En SATA les SSD utilisent le protocole AHCI, crée en 2004 à destination des supports magnétiques (disques durs)
Le NVMe a été spécialement développé pour le mode de fonctionnement des SSD

L'avantage principal du NVMe vient de sa latence 2 fois moindre que celle du protocole AHCI
En effet, ce dernier nécessite la lecture de 4 registres par commande ce qui ralentit les opérations

Le NVMe a été également conçu pour tirer parti des contrôleurs multicores des SSD en gérant les files d'attentes plus nombreuses et plus larges
Avec l'AHCI, ce dernier passait plus de temps à attendre les instructions qu'à travailler
Ce dernier point permet de décupler les IOPS... qui ne sert en fait que pour le secteur PRO (voir précédent post en usage gamer par ex) ou à la rigueurr pour une copie de fichiers entre SSD NVMe

2020-12-10_080055.jpg


Donc le principal lors de l'achat d'u SSD NVMe est d'opter pour un contrôleur natif PCI-E
Cela permet de profiter des débits maximums


Là où cela devient compliqué, c'est que malgré l'utilisation du PCI-E et du protàcole NVMe, les SSD M.2 peuvent "AUSSI" fonctionner en SATA via une connexion directe entre les lignes PCI-E et un port SATA

Cela permet le recyclage des contrôleurs SSATA, largement utilisé sur les SSD 2,5p et de proposer des modèles M.2 abordables et plus compacts que les versions 2, 5p

Le truc c'est que le slot M.2 doit pour cela être câble en conséquence et ce mode condamnera donc l utilisation d'un, port SATA dee la carte mère
(En général c'est précisé dans la doc de la carte mère)

Le soucis c'est que TOUTES les carte mères ne proposent pas ce mode de fonctionnement, ce qui fait qu'un SSD M.2 SATA ne sera pas reconnu
On retrouve aussi des SSD qui n'embarquent qu'un protocole PCI--E natif et qui ne sont pas compatibles avec le protocole NVMe
Là aussi le truc c'est que sans NVMe, il faut passer par le protocole AHCI, ce qui bridera donc les performances (ce qui reste relatif)

La bonne nouvelle c'est que l'on voit de moins en moins ce genre de SSD M..2, mais lors de promos diverses ils sont ressortis des cartons

Les SSD M.2 récents sont compatibles NVMe, et utilisent donc pleinement les lignes PCI-E, MAIS, cela signifie AUSSI, qu'ils ne seront pas reconnus sur les slots M.2 directement câblés sur un port SATA
On le voit régulièrement avec les utilisateurs qui essaient d'installer un M.2 sur un PC portable

La décision d’exploiter une technologie de bus offrant une bande passante supérieure a finalement remplacé les protocoles SATA par la technologie PCIe.
Le stockage PCIe a précédé le NVMe de quelques années, mais comme les solutions précédentes étaient bloquées par des protocoles de transfert de données plus anciens, tels que SATA et AHCI, il a fallu attendre ces dernières années pour découvrir son véritable potentiel


La capacité est AUSSI a prendre en compte


Les puces flash ont plusieurs capacités (dies de 16, 32, 64 go, ..)
Le contrôleur peut gérer plusieurs dies par canal : Ex de 8 dies adressables sur 8 canaux, ce qui donne 2048 Go
Du coup les SSD de 256, 512 Go, se retrouvent à n'avoir besoin que de 1 ou 2 canaux, ce qui réduit les performances par 8 ou 4, en comparaison d'un contrôleur pouvant adresser sur 8 canaux
Les constructeurs essaient de pallie à cela mais au résultat les petites capacités seront quand même moins performantes (et encore je ne parle meme pas du remplissage, du cache, ..ou pas)
Donc, ne pas hésiter à prendre des SSD de plus de 512 Go


Carte filles pour m.2

Le M.2 n étant qui'une simple extension du PCI-E, on peut trouver des cartes filles avec un connecteur M.2, pour les cartes mères qui n 'intègrent pas de connecteur M.2

Le nombre de lignes PCI-E dépendra alors du SSD installé

Les plus performants requièrent 4 lignes, mais certains peuvent se contenter de 2 lignes voire... d'une seule ligne
Il peut s'agir en plus de lignes PCI--E 2.0 ou 3.0

Si on prend ex des chipsets Z87 et Z97 (socket 1155), ceux ci n intègrent que 8 lignes PCI--E 2.0, ce qui fait quer les SSD M.2 étaient limités en PCI-E 2.0, à moins d'utiliser les lignes PCI-E 3.0 provenant du CPU
Cela limite alors la connexion des slots PCI-E à 12 lignes, ce qui est suffisant pour une carte graphique mais pas pour deux (question posée dans le forum)
Au final on ne pouvait cumuler un SSD à haute performances et système biGPU (qui au passage tombe en désuétude)

Le Z170 lui par contre intègre 20 lignes PCI-E 3.0 ce qui n'affecte pas les 16 lignes principales du CPU, qui servent pour le GPU
Vous ne pouvez pas consulter les pièces jointes insérées à ce message.
Only Amiga... was possible !
Un problème sans solution est un problème mal posé. » (Albert Einstein)
"Tous les patients mentent" Docteur House
Avatar de l’utilisateur
Parisien_entraide
Messages : 9761
Inscription : 02 juin 2012 20:48
Localisation : Je suis dans la matrice :-)

Re: TUTO - Optimiser son SSD

par Parisien_entraide »

En passant :

Un secure Erase ou un Sanitize ?

La réponse est chez Sandisk (où on retrouve d'autre questions/réponses en lien avec le sujet)

https://kb.sandisk.com/app/answers/deta ... anitize%3F

_____________
"Secure Erase est différent de Sanitize car il supprime uniquement la table de mappage mais n'efface pas tous les blocs sur lesquels il a été écrit.

Sanitize supprimera la table de mappage et effacera tous les blocs qui ont été écrits.

Par conséquent, Secure Erase est plus rapide à terminer que Sanitize.

Après avoir effacé le lecteur à l'aide de Secure Erase ou de Sanitize, toutes les données utilisateur seront définitivement détruites sur le lecteur sélectionné.
Ces données ne peuvent pas être récupérées."

----------------

Au passage, on retrouve l'outil "Sanitize" dans les programmes de gestion de certains vendeurs de SSD


Quant à l'usage de Diskpart, outil de Windows avec la commande "DiskPart Clean". Chez Crucial il est dit :

"Veuillez noter que cette manipulation ne supprime pas les données des cellules du SSD. Elle efface simplement les partitions qui ont été créées, vous ne pourrez donc plus accéder aux données que le disque contient, et il apparaîtra comme non initialisé. Cette solution est idéale si vous avez créé une partition incorrecte, ou si vous avez sélectionné GPT au lieu de MBR,"
Only Amiga... was possible !
Un problème sans solution est un problème mal posé. » (Albert Einstein)
"Tous les patients mentent" Docteur House
Avatar de l’utilisateur
Parisien_entraide
Messages : 9761
Inscription : 02 juin 2012 20:48
Localisation : Je suis dans la matrice :-)

Re: TUTO - Optimiser son SSD

par Parisien_entraide »

Sur les SSD Samsung QVO

Sur ces SSD QVO on a un cache SLC de 42 Go (Du nom de "Intelligent TurboWrite" ) pour les versions 1 TO (avec une durée de vie de 360 TBW, soit 2 fois moins qu'en TLC en moyenne)
Ce cache a pour vocation d'accélérer les travaux d'écriture en n'utilisant que le premier bit de chaque cellule.
De type hybride, il combine 6 Go réservés à cet usage à 36 Go d'espace dynamique.

Donc il faut prendre en compte que si s'il ne reste que 12 Go d'espace libre, seuls 9 Go seront accélérés : les 6 Go dédiés et 12/4 soit 3 Go pris sur l'espace libre.

A partir du 2 TO (et c'est identique sur les versions 4 et 8 To) le cache SLC est plus important : 78 Go et cela change la donne car de 70-80 Mo/s en débit lorsque le cache est saturé sur du 1 To, on passe à 150 Mo/s (curieusement du reste)

On a aussi une mémoire cache : 1 / 2 / 4 / 8 Go LP DDR4 SDRAM pour les versions 1 / 2 / 4 / 8 To

Si on fait du montage video, ou même du RIP de ses DVD/Blue ray et SURTOUT du P2P (Torrent), il faut oublier le QVO
On peut vite saturer le cache et en plus on réduit FORTEMENT la durée de vie meme si la marge est plus grande à partir de 2 To

A conseiller donc pour du stockage : Photos, documents, vidéos, ou des jeux (si on dépasse les 1 To du fait du cache) mais pas en tant que disque de boot, et surtout pas pour faire du téléchargement tous les jours en P2P

360 TBW pour du 1To
720 TBW pour du 2 To
1 440 TBW pour du 4 To
2 880 TBW pour du 8 To


Au delà de cela ils ne sont pas bons en accès aléatoires, et si on lit divers forums, il y en a beaucoup qui lâchent lorsqu'ils utilisés en disque de boot (surtout sous Win10 et ce sans le fameux bug de défragmentation que Microsoft a mis 5 mois à résoudre
https://www.comptoir-hardware.com/actus ... tml#ragots )

Pour les versions NVMe il vaut mieux utiliser le pilote SAMSUNG https://www.samsung.com/semiconductor/m ... oad/tools/
que celui générique fournir par Microcroft
En plus il faut s'assurer que dans le gestionnaire de périphérique, que celui ci soit bien pris en compte (il doit apparaitre en tant que "NVMe Samsung Controller" sinon il faut forcer l'installation en mettant par ex le pilote dans un dossier et indiquer le chemin à windows pour l'installation (il a été vu des cas où au reboot l'installation n'était pas de fait)
Only Amiga... was possible !
Un problème sans solution est un problème mal posé. » (Albert Einstein)
"Tous les patients mentent" Docteur House
Avatar de l’utilisateur
Parisien_entraide
Messages : 9761
Inscription : 02 juin 2012 20:48
Localisation : Je suis dans la matrice :-)

Re: TUTO - Optimiser son SSD

par Parisien_entraide »

SAMSUNG SSD QVO en version boitier externe et USB


Déjà il faut des ports USB USAP (La norme de données USB 2.1 et USB 3.1 ne permettent pas le TRIM) mais certains pilotes passent outre l'USAP et utilisent l'ATA Pass Through (En fait on fait transiter des commandes ATA par le protocole haut niveau SCSI) et la commande TRIM peut être gérée

Je vais faire court :


Il faut savoir que pour éviter que le cache s'effondre, il faut que la commande TRIM passe en USB
Avec certains contrôleurs de boitiers ce n'est pas le cas (comme le plus courant : JMicron JMS583)

Pour rappel , la commande TRIM, permet, en simplifiant la définition, d’indiquer au contrôleur du SSD qu’une donnée à été effacée, pour améliorer la gestion de l’usure. Mais elle intervient aussi dans la gestion du cache
Pour gérer le cache dynamique, le SSD doit connaître l’espace libre. Et sans TRIM… il ne peut pas.

En pratique, on ne voit pas de différence au début : un SSD formaté est considéré comme vide au départ.

Mais avec le temps, chaque écriture va s’accumuler et si on écrit toutes les cellules… le contrôleur va considérer qu’il est rempli… même s’il ne l’est pas.

Petit exemple :

Télécharger une vidéo de 50 Go (normalement ca ne devrait pas être.. )
La regarder
L'effacer

Télécharger ensuite une seconde vidéo de 50 Go et regarder puis effacer

En interne, avec le TRIM, l’espace libre n’a pas bougé.
Sans le TRIM, en USB, l’espace libre a diminué de 100 Go. Et une fois que le SSD est considéré comme rempli par le SSD… c’est fini.
Après quelques jours ou quelques semaines, on perd totalement le cache dynamique

Ensuite se rappeler que lorsque le 860 QVO n'a plus de cache, ses performances chutent radicalement.
Le SSD va vider le cache en écrivant les données dans la mémoire 4-bits NAND principale, mais ce processus prend un certain temps parfois plusieurs dizaines de minutes entre chaque processus d'écriture (bis repetita voir sujet au dessus)

C'est la même chose lorsqu'on est sur un SSD récalcitrant non reconnu, etc... Il faut le laisser au moins une nuit avec juste l'alimentation et pas le cable sata connecté..
Il y a des fonctions qui vont s'activer et "nettoyer" le disque, le remettre d'aplomb (ca fonctionne très bien avec Crucial mais pas testé sur SAMSUNG)

S'assurer également avec SSD Samsung externes que dans les propriétés du SSD (stratégies) , que la case de l'activation du cache en écriture soit bien cochée
Normalement cela devrait être le cas mais des utilisateurs et SAMSUNG se sont aperçus que ça ne l'était pas toujours (au point que SAMSUNG a ajouté un encart dans sa FAQ)
Only Amiga... was possible !
Un problème sans solution est un problème mal posé. » (Albert Einstein)
"Tous les patients mentent" Docteur House
Avatar de l’utilisateur
Parisien_entraide
Messages : 9761
Inscription : 02 juin 2012 20:48
Localisation : Je suis dans la matrice :-)

Re: TUTO - Optimiser son SSD

par Parisien_entraide »

CLONAGE IMPOSSIBLE :

Certains SSD SATA ou NVMe de marques pas très répandues mais connues (certains modèles SABRENT par ex) utilisent des secteurs de 4k octets, et n'ont pas d'émulation de 512 octets (512e).

Ce petit détail à son importance lors d'un clonage et... pour crypter le SSD

Pour une installations propre, initiale, cela ne devrait pas poser de problème.

Le clonage EST le problème, car vous aurez besoin d'un logiciel de clonage capable de convertir des secteurs de 512 octets en secteurs de 4k, et même dans ce cas, le logiciel de clonage peut ne pas être en mesure de convertir la partition de démarrage

Au résultat : Il est impossible de booter sur le SSD

La plupart des disques durs modernes ont des secteurs physiques de 4k mais émulent des secteurs de 512 octets à des fins de compatibilité (certains programmes ne sont toujours compatibles qu'avec des secteurs de 512 octets).

L'absence de 512e peut également affecter le cryptage et possiblement la sauvegarde de votre disque dur.
Le logiciel de cryptage populaire VeraCrypt ne prend en charge que les secteurs de 512 octets (1)

Même après une installation propre de Windows, on ne peut pas faire fonctionner Bitlocker correctement (2)

----------
Constatés courant 2020 à confirmer suite à de possibles mises à jour

Edit : J'ai retrouvé le modèle indiqué SABRENT
https://www.amazon.fr/dp/B07LGF54XR/ref=emc_b_5_t

Le truc c'est qu'entre 2019 et 2021 il a subi des évolutions et la fiche AMAZON n'est pas à jour

Par ex SABRENT pour ce modèle est passé en 2020 à de la mémoire flash MICRO 27A 96 couches 3D TLC (qui coûte moins cher)
Cela se voit sur une photo postée par un utilisateur et il s'agit bien d'une Micron 96-layer 3D TLC B27A IA7BG63AVA avec un contrôleur Phison E12S
A noter que courant 2020 il y a eu une mise à jour et maintenant l'émulation de 512 octets (512e) est présente
Mais c'est valable pour ce modèle uniquement
Là par contre c'est indiqué sur la fiche : "Un nouvel utilitaire Sabrent permet aux utilisateurs de reformater le disque Rocket et de choisir la taille qu'ils préfèrent, soit 512 bytes, soit 4K bytes."

Un peu de lecture :
https://www.anandtech.com/show/12943/mi ... monstrated

Ce soucis de l'évolution non documentée, et sans communication du fabricant est problématique
https://www.inpact-hardware.com/article ... rformances
ou pire
https://www.inpact-hardware.com/article ... tilise-qlc
Only Amiga... was possible !
Un problème sans solution est un problème mal posé. » (Albert Einstein)
"Tous les patients mentent" Docteur House
Avatar de l’utilisateur
Parisien_entraide
Messages : 9761
Inscription : 02 juin 2012 20:48
Localisation : Je suis dans la matrice :-)

Re: TUTO - Optimiser son SSD

par Parisien_entraide »

Les disques durs SSD de Intel fournissent un statut SMART.

Qu'est ce que le SMART ?
https://www.hdsentinel.com/smart/index.php



Il faut donc se rappeler que le SMART est juste...un indicateur, il peut permettre de se "méfier", mais ce n'est pas une science exacte au jour d'aujourd'hui.
Un disque (SSD ou HD) avec un état SMART "fantastiquement excellent" peut décéder 5 minutes plus tard (PCB qui lâche), et un disque avec des milliers de secteurs réalloués mais stables peut tenir à l'inverse 3 ans de plus (mais peut lâcher également dans la minute)

Les différents modèles utilisent tous pratiquement les mêmes codes.
La documentation technique en ligne de Intel est bien faite et permet de décoder manuellement les paramètres que l'utilitaire SMART ne connait peut-être pas, tandis que les SSD de Samsung sont fournis avec une documentation (PDF) très complète

Voici donc ce que signifie les termes que l'on peut voir apparaitre dans les divers programmes d'analyse des données SMART
En premier apparaissent les explications Intel, en second, j'y ai ajouté celles données par Samsung qui souvent apportent plus de détails
Pour Samsung, j'ai mis la traduction fr telle qu'elle apparait dans ma version de Crystaldisk Info

Certains paramètres sont repris en double: selon le type de disque l'un ou l'autre paramètre sera utilisé (il n'y a pas de standardisation, même pas au niveau d'Intel).

Ensuite il faut bien avoir conscience que chaque constructeur à sa propre politique qui découle de ces données SMART, et c'est pour cela que les programmes ne disent pas toujours la même chose
Par exemple chez CRUCIAL https://www.crucial.fr/support/articles ... smart-data
Ils conseillent d'utiliser leur propre logiciel pour l'analyse des données SMART

Quant à SAMSUNG, on peut se poser des questions sur la manipulation des données SMART
https://www.anandtech.com/show/8239/upd ... d-die-size


DESCRIPTION




01 - Raw Read Error Rate (taux d’erreur brut de lecture)
Si il y a un indicateur sur lequel il ne faut pas trop s'attarder, c'est bien celui ci surtout en lecture avec des programmes autres que ceux du constructeurs, comme Crystal Disk etc (mais c'est valable également pour d'autres indicateurs)

Cela indique le taux d’erreur matérielle lors de la lecture de la surface du disque.
En général, il y’aura toujours un nombre d’erreurs lors de la lecture de secteurs mais cela n’indique pas forcement un problème avec le disque. Il est aussi normal que ce taux s’incrémente de 1 pour chaque erreur.
Les fabricants de SSDs déterminent un niveau optimum d’erreurs et en créent une échelle.
Ce niveau optimum diffère aussi d’un fabriquant a l’autre.
Par exemple, si un fabriquant considère que 3 erreurs pour chaque 100 séances de lectures est quasi parfait, il pourra peut être donner une valeur de 100 pour un taux d’erreur de 3/100.
De ce fait, en regardant ce taux de 100, le client pourrait être alarmé alors qu’en réalité ceci indique un état parfait du disque.
Par ex chez CRUCIAL (même chose chez SAMSUNG) les valeurs dépendent de plusieurs autres facteurs. Le logiciel Storage Exécutive est conçu pour interpréter les données SMART, et en fonction des valeurs et seuils qu 'ils ont établit pour chaque paramètre, cela indiquera si le SSD est en bonne santé ou pas.




5 - 05h - Re-allocated sector count (aussi Samsung) (Nombre de secteurs réalloués)
Indique le nombre de cellules de mémoire mises hors fonction. Ce paramètre indique l'état général du disque mais n'indique pas une défaillance car des pages sont mises hors-fonction dès qu'elles sont épuisées.
Quand le disque dur obtient une erreur de lecture/écriture/vérification sur un secteur, il note ce secteur comme réalloué et transfère les données vers une zone réservée spéciale (la zone de réserve). Ce processus est aussi connu sous le nom de remapping et les secteurs réalloués sont appelés remaps.
C’est pourquoi, sur les disques modernes, on ne peut pas voir de « mauvais » blocs lorsqu’on teste la surface du disque (tous les mauvais secteurs sont cachés dans les secteurs réalloués).
Cependant, plus il y a de secteurs réalloués, plus la vitesse d’écriture/lecture diminue.
Normalement le disque dispose de cellules de réserves (un disque de 60GB a en fait 64GB de mémoire, les 4 GB sont gardés en réserve).

Chez Samsung : "Nombre de secteurs ayant été réalloués. Quand le disque dur obtient une erreur de lecture/écriture/vérification sur un secteur, il note ce secteur comme réalloué et transfère les données vers un nouveau secteur situé dans une zone réservée spéciale."


9 - 09h - Power on hours count (aussi Samsung) (Durée en Heures de fonctionnement)
Nombre d'heures de fonctionnement (attention, la valeur ne peut pas être utilisée telle quelle, c'est une valeur hexadécimale).
Chez SAMSUNG : "Nombre d’heures pendant lequel le lecteur a été en fonctionnement. Cette valeur est un simple indicateur du comportement de l’utilisateur, et n’est pas directement liée à l’état de fonctionnement du lecteur. La valeur brute de cet attribut indique le nombre total d’heures (ou, selon le constructeur, de minutes ou de secondes) de fonctionnement du disque. Lorsque l’ordinateur est en mode de veille prolongée, la valeur Power-On Hours n'augmente pas."


12 - 0Ch - Power cycle count (aussi Samsung) (Nombre total de cycles marche-arrêt)
Nombre de mises sous tension
Chez SAMSUNG : "Nombre de cycles de mise sous/hors tension complets du disque." (appelé aussi Power ON count)

170 - AAh - Available reserverd space
Capacité en réserve prévue pour remplacer les cellules qui sont usées.

171 - ABh - Program fail count
Nombre d'erreurs de programmation (enregistrement de données)

172 - ACh - Erase fail count
Nombre d'erreurs d'effacement (les cellules doivent être effacées avant de recevoir de nouvelles données).


174 - AEh- Unexpected power loss (Nombre de pertes de puissance inattendues)
Également connu sous le nom de «compte de retrait de mise hors tension» selon la terminologie du disque dur classique.
La valeur brute indique le nombre d'arrêts non corrects, cumulatifs sur la durée de vie d'un SSD, où un «arrêt non propre» est la suppression de l'alimentation sans la dernière commande (indépendamment de l'activité PLI utilisant la puissance du condensateur). La valeur normalisée est toujours 100
Pour simplifier, il s'agit du nombre de fois que le disque dur est tombé sans électricité sans indication préalable (commande STANDBY IMMEDIATE). Il est important qu'une procédure de mise à l'arrêt soit suivie, pour s'assurer que toutes les données en mémoire-tampon soient stockées en mémoire flash.
Certains disques utilisent des condensateurs pour fournir du courant pendant la phase de sauvegarde d'urgence, d'autres disques essaient de reconstruire les données manquantes à partir d'une sorte de journal de bord.


175 - AFh - Program Fail Count (chip) Nombre d'erreurs de programmation (puce)
Ce paramètre est considéré comme informatif par la plupart des fournisseurs de matériel. Bien que la dégradation de ce paramètre puisse être un indicateur du vieillissement du disque et/ou de problèmes électromécaniques potentiels, elle n'indique pas directement une panne imminente du disque. Une sauvegarde régulière est recommandée. Portez une attention particulière aux autres paramètres et à la santé globale du lecteur.


177 - B1h - Wear leveling count (Nombre de niveau d'usure)
Nombre d'opération d'effacement d'un bloc. La mémoire SSD s'use à cause des opérations d'effacement. Chaque bloc de mémoire d'un disque TLC (triple level cell) peut être reprogrammé environ 2000 fois.
Le contrôleur va effectuer les opérations d'écriture de telle façon que tout le disque s'use uniformément. Une valeur de 24 indique qu'en moyenne chaque bloc a été reprogrammé 24 fois, ce qui donne une durée de vie restante d'environ 34 ans (si les blocs ont été usée en moyenne de 24/2000 = 1.2% en 5 mois).
Chez SAMSUNG : "Représente le nombre d’opérations d’effacement effectuées sur le support (le nombre de fois qu’un bloc a été effacé)."

Nombre de personnes sont inquiètes parce que les indications par ex de CrystalDiskInfo n'indiquent pas 100% ou alors indiquent des valeurs inférieures à 100%
Il faut savoir que le SSD peut tenir encore quelques années (mais c'est à calculer) Par contre dès que cela atteint 10% il va falloir songer à investir dans un nouveau support (là aussi cela peut etre dans X mois comme dans 1 an et plus)
A 0% les données sont toujours présentes, et peuvent tenir.. un an comme cela (Normes JEDEC)
Donc.. Pas de panique




179 - B3h - Used reserved block count (Nombre de blocs réservés utilisés - Total )
Nombre de blocs gardés en réserve qui sont utilisés. Un bloc de réserve est utilisé dès qu'un bloc ne peut plus être écrit ou effacé correctement.
Chez SAMSUNG : "Représente le nombre total de blocs réservés ayant été utilisés suite à un échec d’une demande programme ou d’une demande d’effacement."


181 - B5h - Progam fail count (Nombre d'échecs du programme)
Nombre d'opérations d'écriture qui ont raté. Si une page rate plusieurs fois de suite, tout le bloc est mis hors d'usage et un bloc de réserve est utilisé à sa place.

182 - B6h - Erase fail count ,(Nombre d'échecs d'effacement)
Nombre d'opérations d'effacement qui ont raté. Il faut effacer tout le bloc avant de pouvoir y écrire. Si l'effacement rate plusieurs fois de suite, le bloc est mis hors d'usage.
Chez SAMSUNG : "Nombre de demandes programme (d’écriture) ayant échoué."


183 - B7h - SATA downshift count
Nombre d'erreurs de dégradation de l'interface SATA. Attribut Western Digital, Samsung ou Seagate: soit le nombre de rétrogradations de la vitesse de liaison (par exemple de 6 Gbps à 3Gbps) ou le nombre total de blocs de données avec des erreurs détectées, non corrigibles, rencontrées pendant le fonctionnement normal.
Bien que la dégradation de ce paramètre puisse être un indicateur du vieillissement du variateur et / ou des problèmes électromécaniques potentiels, elle n'indique pas directement une défaillance imminente


183 - B7h - Runtime bad count (Blocs avec une mauvaise durée - Total )
Nombre de fois que l'interface SATA a du fonctionner à basse vitesse à cause d'erreurs
Somme de toutes les opérations de programmation ou d'effacement qui ont raté.
Chez SAMSUNG : " Correspond à la somme de Program Fail Count et de Erase Fail Count. Cette valeur récapitulative représente le nombre total cumulé d’échecs de demandes programme et de demandes d’effacement."
Program Fail Count : Nombre de demandes programme (d’écriture) ayant échoué.
Erase Fail Count : Nombre de demandes d’effacement ayant échoué.


184 - B8h - End-to-end error detection count
Nombre d'erreurs détectées entre ordinateur et stockage sur disque. Il s'agit de la communication générale entre ordinateur et mémoire.

187 - BBh - Uncorrectable error count (aussi Samsung) (Nombre d'erreurs incorrigibles)
Nombre d'erreurs qui n'ont pas pu être corrigées par les routines de correction (un disque SSD utilise un système de correction comme les disques durs classiques).
Chez SAMSUNG : "Nombre total d’erreurs n’ayant pas pu être corrigées via ECC."


190 - BEh - Airflow temperature (aussi Samsung) (Température débit d'air)
Température du disque
Chez SAMSUNG : "Température actuelle des puces NAND situées à l’intérieur du SSD."


192 - C0h - Unsafe shutdown count Power-off retract count
Correspond au paramètre 174
Disques classiques: indique le nombre de fois que les têtes ont du être parquées d'urgence à cause d'une coupure de courant.


194 - C2h - Device internal temperature
Température interne

195 - B7h - ECC error rate (Taux d'erreur ECC)
Nombre d'erreurs qui ont pu être corrigées par les routines ECC
Chez SAMSUNG : "Nombre d’erreurs corrigibles. Nombre d’erreurs corrigées par le mécanisme interne de correction d’erreurs."


199 - C7h - CRC error count (aussi Samsung) (Nombre d'erreurs CRC)
Erreurs détectées et corrigées par le mécanisme CRC (cyclic redundancy check). Il s'agit des erreurs qui se produisent entre la mémoire et l'ordinateur (spikes ou surcharges électriques, etc).
Chez SAMSUNG : "Nombre d'erreurs de contrôle de redondance cyclique (CRC). S'il y a un problème entre l'hôte et la mémoire flash DRAM ou NAND, le moteur CRC comptabilise l'erreur et la stocke dans cet attribut."


225 - E1h - Host writes Load-unload cycle count
Nombre d'opérations d'écriture (par 32 MB).
Disques classiques: indique le nombre de fois que les têtes ont été parquées sur la rampe.

226 - E2h - Timed workload media wear load-in timer
Certains disques durs (utilisés dans des serveurs) ont un mesureur de charge. Le disque dur est utilisé avec une charge normale pendant par exemple 24 heures, ce qui permet d'évaluer l'usure du disque selon la charge.
Disques classiques: indique les heures de fonctionnement effectives (plateaux en rotation)


227 - E2h - Timed workload host read/write ratio Torque amplification count
Pourcentage d'écritures pendant la durée du test. Une lecture n'use pratiquement pas le disque.


228 - E3h - Timed workload timer Power off retract count
Durée de la période de test. Un programme spécial met le disque en phase de test, puis on l'utilise normalement. Après cette période, on peut évaluer l'usure que l'utilisation pendant la période de test à provoqué.

232 - E8h - Available reserverd space (Endurance remaining)
Double du paramètre 170

233 - E9h - Media wearout indicator Power-on hours
Indication du nombre d'opérations d'écriture. La valeur de ce paramètre diminue au fil du temps, mais n'indique pas nécessairement une réduction de la fiabilité.
Disques classiques: nombre d'heures sous tension


235 - EBh - POR recovery count (Nombre de récupération POR)
Nombre de pertes de courant. En cas de perte de courant sans arrêt normal du disque SSD, le firmware doit remettre à jour le tableau d'attribution (mapping table). Ce tableau indique où chaque page est stockée physiquement et est gardé en permanence en mémoire vive dans le SSD. Il est stocké sur le SSD en cas d'arrêt programmé (commande ATA STANDBY_IMMEDIATE)
Chez SAMSUNG : "Nombre de cas de mise hors tension soudaine. En cas de mise hors tension soudaine, le microcode doit récupérer l’ensemble des données de mappage et des données utilisateur lors de la prochaine mise sous tension. Cet attribut comptabilise le nombre de fois où cette séquence s’est produite."


241 - F1h - Total LBAs written
Nombre de blocs écrits au niveau de l'interface SATA (compte par 32MB). Il s'agit des blocs logiques (Logical Blocs) écrits par l'ordinateur.
Chez SAMSUNG : "Représente la taille totale des blocs LBA (Logical Block Addressing) requis pour traiter l’ensemble des demandes d’écriture envoyées au SSD depuis l’hôte. Pour calculer la taille totale (en octets), il faut multiplier la valeur remontée par SMART par 512."


242 - F2h - Total LBAs read
Nombre de blocs lus au niveau de l'interface SATA (compte par 32MB)


249 - F9h - Total LBAs written (aussi Samsung) (Total LBA en écriture)
Nombre de pages écrites au niveau de la mémoire flash (compte par GB). Un MB d'écrit au niveau de l'interface correspond à plusieurs MB écrits au niveau de la mémoire (écriture effective). Cette augmentation des données écrites est la write amplification et dépend surtout de l'algoritme utilisé par le controlleur SSD.

__________

Sur un SSD les valeurs à surveiller (en Priorité) sont (si affichées par ex dans CrystalDiskInfo)


03 Seuil de réserve
04 Seuil de réserve disponible
05 Pourcentage utilisé/Nombre de secteurs réalloués

Et pour info le % de durées de vie correspond à l usure des cellules

Ensuite suivant les marques, les modèles, version de firmware, et que l'on soit en Sata ou PCI (NVMe) le nombre de données qui apparaissent dans CrystalDisk peuvent différer (et du restes dans d'autres logiciels, et pire dans l'analyse)

Sans compter les http://sgros.blogspot.com/2013/01/seaga ... alues.html


Sur un disque dur (en priorité)

05 Nombre de secteurs réalloués
0A Nombre d'essais de relancement de la rotation
BF Nombre d'erreurs résultant de chocs ou vibrations
C5 Nombre de secteurs instables
C6 Nombre total d'erreurs incorrigibles d'un secteur

Pour les C5 et C6, si il y a un problème, "parfois" un formatage lent peut résoudre le problème, sauf si le soucis est d'ordre matériel, auquel cas, le problème réapparaitra ou la solution n'aura aucun effet
Sur les C6 par ex, cela n'aura aucun effet (idem avec les outils fournis par le constructeur pour un formatage "dit" bas niveau)

Il est conseillé de faire une sauvegarde avant d'utiliser ces outils et on devrait le faire même pour un CHKDSK (1)

C5 Ce sont les secteurs défectueux qui n'ont pas été transférés en secteurs réalloués, et sont donc considérés comme "secteurs instables"

____

(1) Avec un CHKDSK si le disque est endommagé ou mourant, il peut se dégrader davantage

-- Si le disque à un problème physique, et qu'il y ait des fichiers importants sur les clusters défectueux, qui n'ont pas été marqués comme mauvais, ces clusters peuvent fonctionner par intermittence. En les "corrigeant", le lecteur ignore ces clusters et, par conséquent, ces fichiers sont et seront inaccessibles.

- CHKDSK peut reconnaître les secteurs défectueux et les marquer comme inaccessibles.
Si on supprime un fichier par erreur, le secteur du fichier est marqué comme disponible et libre.
Dans ce cas, si on exécute CHKDSK, il trouvera les secteurs défectueux et remappera les fichiers sur les secteurs défectueux vers des secteurs de rechange, comme le secteur où se trouvait le fichier supprimé.
Ainsi, il efface définitivement le fichier supprimé accidentellement du lecteur, sans parler de le récupérer.

Pour lire les rapports CHKDSK je conseille ce petit utilitaire : viewtopic.php?p=514773#p514773
.
Only Amiga... was possible !
Un problème sans solution est un problème mal posé. » (Albert Einstein)
"Tous les patients mentent" Docteur House
Avatar de l’utilisateur
Parisien_entraide
Messages : 9761
Inscription : 02 juin 2012 20:48
Localisation : Je suis dans la matrice :-)

Re: TUTO - Optimiser son SSD

par Parisien_entraide »

IDEES RECUES SUR LES SSD

La source est fiable puisque émanant de chez Ontrack, spécialiste du recouvrement de données

https://www.ontrack.com/fr-fr/blog/6-id ... sques-ssd1

ATTENTION !

C'est à lire sous l'angle de Ontrack, c'est à dire ce qu'ils voient arriver (origine de pannes) dans le cadre de la récupération de données, parce que tout le monde sait que.. L'eau ça mouille, et que les équipements électriques ne l'ont jamais aimé

Donc cela peut paraitre biasé, car si on considère que moins de 20% des Français ont fait tomber leur smartphone dans les toilettes, cela correspond à environ, pour certains réparateurs, à 80% des demandes de récupération des données, alors que ce meme pourcentage correspond à la casse de l'écran, cause première des "pannes" de smarphones

Pour les PC, surtout portables, la canette de soda renversée, est un grand classique (les composants n'aiment pas les liquides surtout mélangés avec du sucre)


"Les disques SSD n'ont pas de pièces mobiles et tombent donc très rarement en panne
Comme les disques SSD ne comportent pas de pièces mobiles, ils sont à certains égards beaucoup plus fiables que les disques durs traditionnels. Toutefois, ils sont essentiellement installés dans des appareils mobiles, lesquels sont soumis à des conditions nettement plus rudes que les usages des disques durs traditionnels. Ainsi, d'après les observations de Kroll Ontrack, l’eau représente la cause la plus fréquente de défaillance des disques SSD. Elle provoque des courts-circuits et endommage les composants électroniques. Par comparaison, moins de 1 % des défaillances de disques durs traditionnels sont dues à l'eau.


Vous n'avez pas besoin d'effectuer une sauvegarde si vous synchronisez votre disque SSD dans le cloud
Il existe une règle en matière d'informatique : si vous n'avez pas une sauvegarde sur 2 supports différents, vous n'avez pas de sauvegarde valable. Cette règle ne change rien au prétexte que le support de stockage que vous utilisez est plus fiable qu’un autre. Ontrack aide souvent des clients à récupérer leurs données après que les versions d'un fichier enregistrées sur l’ordinateur et dans le cloud se retrouvent toutes deux inaccessibles, altérées, supprimées ou écrasées. Très souvent en fait, la version locale est endommagée et est ensuite synchronisée dans le cloud. Si la majorité des prestataires cloud enregistrent les versions précédentes des fichiers, cette solution ne fonctionne pas toujours. Nous recommandons toujours de procéder à une seconde sauvegarde.

Les disques SSD peuvent être facilement réparés en cas de problème
C'est faux, les disques SSD sont difficilement séparables des autres composants électroniques et sont donc très difficiles à réparer. Par exemple, les disques SSD sur la plupart des tablettes et des smartphones sont imbriqués sur la carte du circuit principal.


Si l'ordinateur n’a pas été éteint correctement ou la batterie est complètement épuisée, cela n'endommage pas les données
Pour qu’un disque SSD ne perde pas de données lorsque l'alimentation est coupée alors qu'il est en train de copier des données, il faut que ce dernier s'arrête dans un état sûr en quelques millisecondes. C'est prendre un risque d'espérer que tout se passe bien chaque fois et que les concepteurs du contrôleur ont bien fait leurs calculs. L'expérience des ingénieurs de Kroll Ontrack montre qu'il arrive parfois que les choses tournent mal. Les résultats observés sont une altération des données au point que l'utilisateur ne puisse plus avoir accès à ses fichiers.


Les disques SSD fonctionneront toujours, car ils ne s'usent pas
C'est faux, dans la mesure où la durée de vie et la capacité de tous les supports diminuent au fil du temps. Un phénomène lié à la conception et appelé "amplification des écritures" veut que la capacité et la vitesse des SSD se réduisent progressivement. Ce phénomène est dû à la façon dont le SSD efface les données de la mémoire.

La durée de vie utile d'un disque SSD peut n'être que de cinq ans s'il est souvent utilisé.
Il est conseillé de moderniser ses appareils tous les trois ans afin de ne pas avoir ce problème. Deux types de mémoire sont actuellement utilisés dans les disques SSD : SLC (cellule à un niveau) et MLC (cellule à plusieurs niveaux).
La mémoire SLC dure plus longtemps mais coûte plus cher à produire.
Tous les disques peu onéreux et la plupart des lecteurs à mémoire Flash USB utilisent une mémoire MLC.
La mémoire Flash ne peut être programmée et effacée qu'un nombre de fois limité. C'est ce que l'on appelle le nombre maximal de cycles d'écriture/effacement que peut endurer la mémoire Flash au cours de sa durée de vie.
La mémoire SLC, conçue pour des performances supérieures et une plus grande endurance, peut généralement accepter entre 50 000 et 100 000 cycles.
La mémoire Flash MLC est quant à elle conçue pour des applications moins coûteuses et un nombre de cycles nettement inférieur, généralement entre 3 000 et 5 000 (chiffres de 2011).


L’utilisation du chiffrement ne présente pas d'inconvénients majeurs
C'est faux, le chiffrement réduit considérablement la possibilité de récupération des données dans le cas où un disque dur est reformaté par erreur. L'utilisation du chiffrement intégral du disque complique ce problème.
De nombreuses situations de perte de données provoquées par des pannes logiques ne peuvent pas être récupérées.
Si la défaillance endommage le disque chiffré et empêche le montage du disque, cela implique que les données ne peuvent pas être déchiffrées.
En outre, si le disque est très endommagé, il n'est pas non plus possible de tenter une récupération partielle ou ciblée dans la mesure où l'emplacement des données importantes ne peut pas être identifié.
C'est un cas de récupération du tout ou rien, comme s'il s'agissait de faire un puzzle de 10 000 pièces où toutes les pièces ont la même couleur et la même forme !"
Only Amiga... was possible !
Un problème sans solution est un problème mal posé. » (Albert Einstein)
"Tous les patients mentent" Docteur House
Avatar de l’utilisateur
Parisien_entraide
Messages : 9761
Inscription : 02 juin 2012 20:48
Localisation : Je suis dans la matrice :-)

Re: TUTO - Optimiser son SSD

par Parisien_entraide »

ATTENTION !

Les constructeurs de SSD changent les composants, et pas que les puces mémoires entre les premières versions (souvent testées dans divers medias) et les versions mise sur le marché ensuite

En mode lecture, le plus souvent, cela ne change pas grand chose, mais en mode écriture avec une grande quantité de données cela peut être catastrophique (lié à l'usage en fait)
Idem pour l'endurance (même si ...)
Le soucis est surtout liée à l'information et où le client est trompé (perso je ne prend jamais un SSD en QLC qui va me servir de disque de boot)


C'est un site Chinois qui dénonce l'arnaque (C'est le monde à l'envers :-) https://www.expreview.com/80127.html même si ce n'est pas nouveau, que WESTERN DIGITAL n'est pas le seul à pratiquer, et que surtout cela ne touche pas que le monde des SSD (Depuis des années on peut le voir également pour les dalles de TV, etc et ce n'est rarement au bénéfice des acheteurs)

---------

WESTERN DIGITAL


Exemple du SSD WESTERN DIGITAL BLUE DISK modèle SN550


WD_NVMe.png


Il s'agit d'un modèle bon marché sans mémoire cache DRAM.
Pour compenser les lenteurs d'écriture des puces TLC (3 bits de données par cellule), une partie de la mémoire flash fonctionne comme un
cache en mode SLC (1 bit par cellule), nettement plus rapide. Le cache maximum est de 12 Go

Initialement ce SSD à une vitesse de lecture continue de 2400 MB/s et une vitesse d'écriture de 1950 MB/s.

Bien que son cache SLC ne soit pas volumineux, il peut toujours maintenir une vitesse d'écriture élevée une fois le cache (12GB) SLC épuisé.
Le SanDisk Extreme 1 To, qui est le même modèle que le Western Digital SN550, (Sandisk appartient à Western Digital ) a toujours une vitesse d'écriture de 849 MB/s après épuisement
du cache SLC.

La nouvelle version du SN550 a été remplacée par une nouvelle mémoire flash (002031 1T00 contre 60523 1T00 précédemment) et le numéro du
firmware a également changé.

tablerau.png

Ces nouveaux SN550 ne proposent que la moitié de la vitesse d'origine une fois le cache SLC épuisé, ce qui est presque le même niveau que le
Western Digital WD Green SN350 960GB, mais qui est vendu presque...50% moins cher
Le WD Blue SN550 à 1 To était encore vendu récemment autour de 150 euros (et pas la première version) alors que la version WD green SN350 sortie en février était initialement à 85 euros
Depuis quelques temps on ne trouve plus de SN350 à 1To et la version SN550 est trouvable autour de 80 à 85 euros.. Curieux non ? :-)

En mode lecture cela ne change pas, mais en mode écriture on passe donc à 390 MB/s une fois le cache épuisé, c'est à dire pratiquement la
même vitesse que le modèle SN350 qui plafonne à 376 MB/s

Tab comparaison vitesse.png


Comparaison des numéros de mémoire flash et firmware

Le numéro de mémoire flash sur ce nouveau SN550 est devenu 002031 1T00, le numéro de version du micrologiciel est 233010WD et la mémoire
flash utilisée dans l'ancienne version est 60523 1T00
Le numéro de firmware est 211070WD

On peut voir que la mémoire flash et le firmware ont étés modifié, mais le contrôle principal est toujours le SanDisk 20-82-01008-A1 d'origine.
Ce qui est intéressant, c'est que le numéro de firmware du Western Digital Green Disk SN350 commence également par 23, mais le modèle de
mémoire flash utilisé est différent du nouveau SN550.


Du point de vue du constructeur, Utiliser plus de 12 GO de cache, reste accessoire pour une majorité de gens, SAUF pour ceux qui font par ex
du montage video, ou écrivent de grandes quantités de données

Le soucis est que WD n'a pas prévenu les consommateurs,
Ce n'est pas la première fois que WD trompe son monde. Il faut se rappeler l'affaire des disque durs vendus pour des NAS, en technologie SMR
(donc inadaptée) et pour laquelle WD a été poursuivi




Sont ils les seuls à agir de même ? Malheureusement NON







Chez SAMSUNG :

Source https://www.tomshardware.fr/quand-samsu ... leurs-ssd/

Samsung 1To.png


Chez SAMSUNG ce n'est pas complètement négatif, puisque le 970 EVO PLUS hérite du contrôleur du 980 Pro (Elpis au lieu du Phoenix), avec un plus gros cache SLC (115 Go contre 45).
Par contre une fois le cache épuisé, on passe à 800 MB/s contre 1 500 MB/S pour le 980 pro

samsung.png

Dans les changements de versions, mais que contrairement à WD, SAMSUNG indique, du SSD 970 Evo Plus, on retrouve toujours de la NAND 3D TLC à
96 couches, de la DRAM LPDDR4, mais on passe d'un contrôleur Phoenix à un contrôleur ELPIS (qui est celui du 980 Pro)

Pour résumer SAMSUNG a effectué un changement de contrôleur et a changé la taille du cache pseudo SLC)

Par contre, de mémoire, Samsung avait introduit un système de sécurité (je ne sais sur quelle gamme de NVMe) pour éviter que ses NVMe dépassent 65°C (puisque la plage de fonctionnement est de 0 à 70°c) afin d'éviter le throttling constaté
C'est pour cela que les perfs n'étaient pas l'identique (en baisse donc) sur les premiers tests des revues/sites, et les utilisateurs dès lors qu'on s'approchait des 65°C.

samsung01.png

On perd juste un peu de vitesse dans les débits


Par contre petite histoire dont on attend les explications, c'est la disparition du nom du contrôleur sur la fiche technique pour le 980 PRO et ce bien avant celle du 970 EVO Plus
Cela laisse présager là aussi le swap

2021-09-06_095513.png




Chez CRUCIAL


Le SSD BX500 emploie la technologie TLC et le SSD MX500 est devenu le premier disque Crucial basé sur le TLC NAND 3D 64 couches de Micron.

Seulement avec les séries BX500/MX500 on a eu droit au fil du temps, a du SILICON MOTION SMI2258(XT) qui est devenu SMI2259(XT) - qui est plus cheap - à la place des bons vieux Marvell comme sur les MX300, et de la NAND TLC 96L

Soit :

MX500 = SM2258
BX500 = SM2258
BX500 1 To = SM2259XT (Le pire)

Nombre de personnes ont eu des problèmes de chauffe, des pertes brutales de performance, des gels (freeze et micro freeze), des BSOD et.. des SSD morts (la mort d'un SSD est souvent le fait du controleur, et très très rarement des puces mémoires)
Sans compter le reste https://www.touslesdrivers.com/index.ph ... _code=7905



C'est la même chose avec les SSD P2 NVMe M.2, livrés initialement avec de la TLC et qui se retrouvent avec de la QLC moins chère, plus lente
et moins endurante

Curcial 500gop.png

A la base c'est du bas de gamme pas performant, mais là c'est encore pire
En tests réels on se retrouve avec du 40 Mbps, c'est à dire un taux de transfert digne de l'USB 2.0 et plus lent qu'un disque dur

Crucial a effectué le changement sans modifier le nom ou le numéro du produit ni publier d'annonce.
Pire, au moment où ce NVMe était vendu, CRUCIAL à livre et publié des spécifications inférieures pour les lecteurs TLC d'origine à ce qu'ils
étaient capables d'atteindre, c'est à dire.. celles de la QLC

C'est donc qu'ils savaient qu'ils allaient passer ensuite à de la QLC, pendant que tout le monde s'extasiait sur les performances de la TLC
de base qui démontraient que ce modèle était plus rapide que ce qu'il était indiqué sur le papier

J'appelle cela de la malhonnête, et de la fraude

Et ne croyez pas que MICRON et sa marque CRUCIAL a souffert de la crise COVID

"Micron, qui commercialise la marque Crucial auprès des consommateurs, a déclaré un chiffre d'affaires de 7,42 milliards de dollars au
dernier trimestre, contre 5,4 milliards de dollars il y a un an. La l'entreprise est marge brute de passée de 33 % à 42 %. Son résultat d'exploitation est passé de 981 milliards de dollars au troisième trimestre 2020 de son trimestre fiscal à 1,799 milliard de dollars au troisième trimestre fiscal 2021. Pour célébrer cette formidable croissance, Micron a annoncé un dividende en espèces trimestriel , affirmant : « L'introduction d'un dividende en actions ordinaires reflète notre confiance dans l'avenir de Micron. et notre engagement à créer une valeur attrayante pour les actionnaires."


Voila tout est dit. La priorité est l'actionnaire pas le client



Edit du 01/10/2021

CRUCIAL vient de sortir la version 4To du MX500
Le soucis c'est que ce MX500 n'a rien à voir avec la version de 2017

Si l'on va sur le site, on ne dispose que des caractéristiques communes
https://www.crucial.fr/ssd/mx500/ct4000 ... ct20730120

2021-10-01_141924.png


Certains testeurs ont eu une fiche technique et descriptif

Fiche technique.jpg



Le soucis

Sm2259-a.jpg
Alors oui on a bien de la NAND TLC 3D mais CRUCIAL n'a pas indiqué le nombre de couches (Sur les autres versions MX c'était géré par un SM2258 de Silicon Motion et de la 3D-TLC-NAND de la génération 64 couches de la société mère Micron)

Sur la photo on ne le voit pas mais il y a quatre packages NAND d'installés (2 par face) mais chacun possède 16 matrices de 512 Gbit chacune, ce qui signifie quatre fois la capacité de stockage de 1 To par package, donc 4 To au total.

MAIS ! Comme on peut le voir sur la photo, ce SSD n'utilise pas le SM2258, mais le SM2259, comme ce fut le cas avec la nouvelle édition du MX500 avec 1 To .

La fiche technnique n'est donc pas à jour

Le PDF de MICRON sur le SM2259 https://www.siliconmotion.com/download/ ... 201910.pdf indique que le contrôleur 4 canaux de Silicon Motion ne supporte en fait qu'un maximum de 32 puces (8 CE par canal). Cependant, dans ce cas, il y en a 64, soit deux fois plus de jetons (dies).
Interrogé à ce sujet, Crucial a expliqué que les 64 matrices peuvent toujours être adressées par le contrôleur à l'aide du "Mode d'entrelacement à 4 voies" et que les performances devraient être au niveau du modèles 2To

Est- ce que le contrôleur peut réellement gérer les 64 puces de mémoire ?
Si Micron utilisait son propre QLC-NAND avec 1 024 Gbit au lieu de la TLC-NAND avec 512 Gbit, la limite de 32 puces pourrait également être maintenue. Mais la QLC-NAND est plus lente et moins durable.
La décision de conserver TLC-NAND est initialement louable, mais il reste à voir avec quelle efficacité le contrôleur peut réellement gérer les 64 puces de mémoire.

Les éditeurs ne connaissent aucun autre SSD avec un contrôleur SM2259 et 4 To d'espace de stockage.


Pour rappel : Sur la nouvelle génération de MX500 1 To ("M3CR033") on a vu apparaitre le Silicon Motion SM2259H avec de la 3D NAND à 96 couches
https://www.computerbase.de/2021-04/cru ... r033-test/


2021-10-01_150441.png



Autre problème :
  • - Le cache DRAM ne contient que 512 Mo, soit 1/8 de ce qui serait standard pour un SSD de 4 To.
Normalement la règle de 1 Go de DRAM pour 1 To d'espace de stockage s'applique, ce qui signifierait 4 Go.
Il reste à clarifier si cela a un impact significatif sur les performances (sur les autres générations de MX500 c'était 1 024 Mo de DDR3-1866 (2 × 512 Mo)
Le soucis avec le SM2259 c'est qu'il ne peut en principe pas gérer 4 Go de DRAM (mais il y a une marge entre 512 et 4 Go)

Ce qui est inquiétant c'est qu'on se dirige vers des SSD réalisés à l'économie et il est fort possible que cette histoire de réduction de DRAM préfigure de nouvelles séries de SSD
Crucial admet que cela entraîne une perte de performances sur certaines charges de travail et que la décision a bien été prise en fonction des coûts.

Donc visiblement on est dans le cas de figure du QVO de SAMSUNG : Ne pas l'utiliser en disque de boot, ou alors pour de la bureautique légère (A exclure donc pour les utilisateurs de P2P dont personne ne parle dans les tests, qui vont réduire la durée de vie à peau de chagrin)
Par contre il sera utile en disque secondaire pour stocker vos photos, films...ou pour une collection de jeux steam

Les SSD NVMe sans leur propre cache DRAM ont montré que même quelques Mo de mémoire système réservés par "Host Memory Buffer" (HMB) sont suffisants en remplacement de la DRAM pour éviter une baisse des performances. Le 980 (sans Pro) de Samsung , par exemple, n'utilise que 64 Mo de RAM système en tant que HMB et ne présente donc aucune faiblesse. Cependant, les SSD SATA n'ont pas la fonction HMB NVMe, donc au moins une petite puce DRAM dédiée doit être installée.

S'il n'y a ni (petit) cache DRAM dédié ni support HMB, il y a un risque de panne du système, comme ce fut le cas avec le Toshiba TR200
https://www.computerbase.de/2017-11/tos ... -ssd-test/

Pour le reste, si on regarde la concurrence, le SAMSUNG 870 EVO 4 To est plus de deux fois plus endurant que ce modèle de chez CRUCIAL, meme si on terme de prix on devrait plutot le rapprocher du QVO
Néanmoins il faut être prudent sur ces histoires d'endurance, car on ne peut pas comparer non seulement entre les marques, mais également les modèles et pire encore si le produit à subi une évolution dans la gamme (puces/couches, contrôleur, ...)
Ensuite il y a le bas de gamme et le haut de gamme (On peut avoir les memes puces, mais des contrôleurs différents sans compter la qualité de l'électronique etc) Les histoires de caches également ont un impact
En plus il faut prendre les déclarations d'endurance des constructeurs avec des pincettes
  • - Les performances théoriques ne sont pas au top non plus (il faut attendre les vrais tests)
  • - La garantie est cependant de 5 ans (si on arrive à la faire jouer car ce n'est pas simple chez Crucial)

Concernant le prix (ce jour) : Il est affiché à 364,79 € T.T.C chez Crucial.fr, MAIS
- chez LDLC on le trouve à 449.95 euros
- Idem chez Materiel.net (normal c'est la meme sté)
Là, qu'on ne vienne pas me parler de la hausse du prix des composants, parce qu'on est quand même à 85 euros de différence( oui pas de stocks, les quantités commandées bla bla bla etc n'empêche que...)
Dans les 3 cas il faut ajouter les frais de port

- Sur Amazon au plus bas on le trouve à : 363.99 euros

Source https://www.computerbase.de/2021-09/cru ... cherplatz/





Et chez les autres ?


C'est pareil





Chez A-DATA avec par exemple le modèle PG SX8200 Pro


A DATA SSD.png

A data a modifié son SSD qui a subi une réduction de 41% des performances de copie de fichiers et une baisse de 500 Mbps des charges de travail légères après les modifications.
En fait, une révision ne peut même pas répondre à la spécification nominale de 3 500/3 000 Mbps, sans parler des performances aléatoires 4K
nominales, comme les autres révisions.

A DATA a changé le contrôleur, celui ci est passé du SMI SM2262ENG (le plus performant) au contrôleur SMI SM2262G, de firmware, et de NAND
qui d'origine était de la TLC IMFT 64L en TLC 96L de chez MICRON

A noter que le SM2262ENG était livré avec le contrôleur cadencé à 650 MHz avec une vitesse d'interface de la flash de 650 MTps
Cela pouvait introduire de la chauffe, et réduire la durée de vie, mais les performances étaient là

Dans une troisième mouture, A DATA est redescendu à ...575Mhz et a encore changé de NAND en passant à de la flash TLC B27B 96L de Micron,à de
la SAMSUNG 64L TLC tout en conservant le contrôleur Silicon Motion SM2262G, mais surtout en abaissant la vitesse de l'interface Flash de 650 MTps à .. 525 MTps
A cela on y ajoute le cache SLC qui passe de 160Go à ... 12 Go

Dans les tests en mode réel, cette version V3 voit les performances diminuer globalement de 10 à 12% (applications quotidiennes) mais a pris
un retard supplémentaire de 36 % à 41 % lors des tests de copie ou de grosses charges
Par contre, il est de 1 à 2 % plus rapide lors de la relecture des gros fichiers de test.
Sur des machines de type station de travail et un benchmark approprié, la V1 était un poil supérieure globalement en terme de performances par rapport au Samsung 970 EVO Plus
Avec la V3, sur le même test, le modèle de A DATA accuse un retard de 2 minutes (pour les utilisateurs qui font un usage pro c'est important)


Chez ADATA tout cela a été fait sans informer les consommateurs


Les fiches techniques de la société indiquent simplement que le lecteur est livré avec un contrôleur « SMI » et ne répertorie pas le numéro de modèle du contrôleur SSD réel.
Adata indique que toute modification apportée au contrôleur devrait toujours permettre au SSD de fonctionner conformément aux spécifications,
et que le changement visait en fait à prolonger la longévité du SSD. Cependant, la société n'a pas modifié la garantie ou les cotes d'endurance pour refléter le changement.

Adata évalue le XPG SX8200 Pro pour offrir des performances de transfert séquentiel allant jusqu'à 3,5/3,0 Go/s en lecture/écriture et pour
supporter jusqu'à 390 000/380 000 IOPS en lecture/écriture aléatoires. Bien sûr, selon le site Web d'Adata, ces évaluations "peuvent varier
en fonction de la capacité du SSD, du matériel et des logiciels de l'hôte, du système d'exploitation et d'autres variables système".


MAIS ce n'est pas la première fois que A-DATA procède ainsi

La série XPG SX8100 est aussi concernée

Le modèle 4 To n'est plus équipé de NAND TLC comme le suggèrent les référencements chez certains revendeurs (où du reste la mention de "3D NAND TLC " a été ensuite remplacée par « 3D NAND)
En effet la NAND TLC a été remplacée par ... de la NAND QLC 96L de chez Micron
En plus A DATA indique toujours une endurance de 2560 To, ce qui optimiste pour de la QLC
Samsung arrive à peine à 1440 To pour son 870 QVO 4 To en SATA, d'autant plus lorsque l'on sait que les SSD NVMe MP400 4 To de Corsair et Rocket Q 4 To de Sabrent affichent une endurance de seulement 800 et 940 To respectivement mais avec un contrôleur Phison, alors qu'ils exploitent eux aussi cette NAND 3D QLC 96L de Micron.




Bref, on fait du mensonge par omission, on joue sur les mots




On pourrait continuer sur les autres marques comme

Kingston avec le V300, A 400 et son contrôleur minable, le Phison S11, que l'on retrouve dans l'entrée de gamme des SSD Toshiba / Palit / Patriot / Kingston (Ils ont jonglé entre le Phison S11 et le SandForce SF-2281)

Donc se souvient des séries" Kingston A400 - 240Go format SATA" qui n'étaient plus reconnus au bout d'un certain temps sauf comme "SATAFIRM S11" . La faute au fameux contrôleur Phison S11 qui lâchait
De ce fait les données devenaient illisibles
Le même était utilisé dans les Toshiba TR200, Palit UVS line, Patriot Spark


Sans compter que les V300 se sont retrouvés ensuite avec un type de mémoire, qui est de type Toggle/ONFI synchrone pour les premieres moutures, mais asynchrone dans les modèles qui ont suivi.
La mémoire asynchrone grève grandement les débits séquentiels des SSD,

On avait 459 Mo /s en lecture et 141 Mo /s en écriture lors du lancement, mais les modèles vendus actuellement passent à 185 Mo /s et 94 Mo /s
En plus les fiches techniques sont trompeuses car les tests ne font pas état du fait du modèle de controleur SandForce, que celui ci intégre un algorithme de compression en temps réel, basique
Cela trompe les programmes de tests
Ceux ci annoncent par ex des débits de 540 Mo /s en lecture et 490 Mo /s en écriture.
Seul problème, en pratique on en est bien loin et OCZ qui dispose d'un modèle similaire, l'Agility 3, annonce pour sa part 525/475 Mo /s dans ce cas mais aussi 180 Mo /s en lecture et 65 Mo /s en écriture lorsque l'algorithme n'est pas/plus fonctionnel, ce qui change tout

D'autres modèles sont à éviter comme le modèle NVMe Kingston A1000 (considéré comme le bas de gamme) et son contrôleur Phison E8 (Phison PS5008-E8 avec 2 lignes PCIe Gen3 que l'on retrouve également dans le bas de gamme PNY )

Phison avait deux solutions Le PS5008-E8T qui est une conception sans DRAM et qui utilise la technologie Host Memory Buffer (HMB) pour mettre en cache la carte d'adresses physique-logique dans la mémoire de votre système
Il est décrit comme une option très économique pour les constructeurs de systèmes (vise les OEM donc un PC vendu avec un Kingston de ce modèle est suspect en terme de performances. Le soucis, c'est que le "T" à la fin du E8 n'est jamais indiqué

L'autre est le PS5008-E8 qui est le modèle grand public de la série E8. Ce contrôleur augmente les performances en utilisant la DRAM locale sur le SSD. Avec la mémoire DRAM plus proche du contrôleur, le saut de latence est inférieur à celui d'atteindre la mémoire système via le bus PCI Express.

La conception x2 (les lignes) réduit la complexité de la R&D et est moins chère à fabriquer.
Les SSD "normaux" utilisent une connexion x4, mais dans ce cas, deux des voies sont désactivées. Cela permet aux ordinateurs portables de désactiver deux voies PCI Express et le matériel qui leur est associé, comme les commutateurs PCIe.
Cela réduit la consommation d'énergie globale du système.
Le truc c est qu'il n'est pas indiqué que ces SSD NVMe sont principalement à destination des ordis portables
On peut les retrouver lors des soldes sur certains sites de vente connus par des revendeurs tiers

Même chose pour le A2000 (à ne pas confondre avec le KC2000 qui est le haut de gamme de la marque tout comme le KC3000 avec Phison E18 ) où là on a eu droit à la valse des contrôleurs sans que le client en soit informé (Silicon Motion SM2263-series et Phison PS5008-E8)





Ex avec un 120 Go V300 en nouvelle version mais c'est la même chose pour les capacités >

kingston 120A.png


Pour les Sabrent, Corsair, Sandisk, etc Le problème est à l'identique



PATRIOT avec son Viper VPN 100
vpn100.png
Le contrôleur PS5012-E12 a été remplacé par le PS5012-E12S, ce qui n'est pas négatif, la nouvelle puce étant plus petite et disposant d'un IHS en métal pour une meilleure dissipation
Cet E12S est venu avec un passage de BiCS3 (64L Toshiba/Kioxia TLC) à 96L IMFT (Intel/Micron) TLC qui ont des architectures différentes ( CTF vs FG) et qui impacte les profils d'endurance.
Elle nécessite aussi moins de DRAM pour son fonctionnement.
Sur le papier, ses performances sont même un peu meilleures que le PS5012-E12. Cette évolution a aussi accompagné le passage de la NAND 3D TLC 64L de chez Toshiba à la NAND 3D TLC 96L de chez Micron (moins bonne)

Le problème : "Au lieu des 2 Go de DRR4 SK Hynix du SSD testé en 2019, cet exemplaire acheté en 2021 n'a plus qu'une seule puce Kingston DDR3L de 512 Mo, l'emplacement au dos laissé vide (voir image ci dessus) — une quantité par ailleurs identique à celle du VPN100 1 To retesté en 2020 par Igor's Lab et qui en possédait pourtant bien 1 Go en 2019, ce qui veut dire que le changement a été fait depuis un p'tit moment.
On sait que la DRAM affecte les performances générales et l'endurance d'un SSD "

Source https://www.igorslab.de/en/patriot-vipe ... ifference/




PNY et son XLR8 CS3030

PNY.png

Initialement montés de NAND 3D TLC mais dont l'endurance suggère de la NAND QLC, ou de la NAND TLC moins bonne, voire même d'ancienne génération.
Le numéro de modèle est resté cependant inchangé (M280CS3030-250-RB)
La doc initiale faisait état de NAND 3D TLC, mais la nouvelle plus pudique indique juste NAND 3D

On peut voir sur ce tableau que l'endurance n'est plus la même

2021-09-04_121431.png


Ce n'est pas la première fois que PNY s'amuse à cela puisque la Sté avait fait la même chose avec ses SSD SATA CS900 en 2020, en échangeant la TLC d'origine pour de la QLC pour "des raisons d’approvisionnement" (mais toujours sans avertir les clients)

En plus ce modèle est considéré comme le très bas de gamme de PNY, avec des puces d'anciennes génération mais surtout avec un contrôleur qui pose problème et qui est considéré comme le pire des controleurs : le Phison PS3111-S11
Il y a eu une révision depuis cependant

C'est ce contrôleur que l'on retrouve sur les SSD vendus sur Wish et Ali express sous des marques chinoises inconnues et que l'on retrouve sur les KINGSTON de petite capacité (128Go par ex)

Les gens ont au mieux des problèmes liés au SATA (erreurs de copie, erreurs E/S, des données, tables de partition, qui disparaissent) et au pire le SSD qui devient HS (entre quelques heures et 6 mois ou un an)

En plus au niveau des performances vu le cache (il n'y a pas de puce DRAM) ridicule, vite rempli, il est de 4Go sur le modèle en 256 Go dont il faut espérer qu'il ne soit pas inférieur sur ce modèle en 120 Go) on arrive à des performances INFÉRIEURES à celles d'un disque dur en 5 400tr/m soit au mieux 70 Mo/s mais en réalité cela tourne entre 25 et 35 Mo/s

Seul le temps d'accès qui est commun à tous les SSD fait illusion
On pouvait encore le trouver autour de 15 euros il y a quelques temps.. Ca ne vaut pas plus
Perso, du fait du contrôleur je ne m'en servirai meme pas comme support externe en USB pour remplacer une clé USB (il n'est pas plus fiable qu'une clé USB)







SANDISK


Sandisk SSD plus de 256Go (240Go) (à ne pas confondre avec les SANDISK séries Ultra PLUS et contrôleur Marvell)


Sandisk.png


Sandisk et le modèle "plus" est considéré comme le bas de gamme de la marque.
Néanmoins les composants sont de bonne qualité mais c'est sur le contrôleur que Sandisk a fait des économies
En plus la puce n'intègre donc pas de contrôleur DRAM, pas de système de cache SLC (nCache).

Il est donc impératif avec ce SSD de laisser sur Windows, la mémoire cache activée, contrairement à ce que l'on voit dans certains tweaks proposés sur internet.
Sur de la mémoire MLC le cache va intercepter les données pour les rassembler, et ce SSD est équipé (à ce jour) "normalement" de MLC

Le soucis, c'est que ce produit a une nomenclature variable (BOM), ce qui signifie que le fournisseur peut (et modifie) les composants internes régulièrement sans changer le nom de la série de produits.

A sa sortie quelques utilisateurs finaux ont reçu des disques de référence SDSSDA-240G-G25 avec un contrôleur SM2246XT de Silicon Motion, Inc. (SMI) et une mémoire flash MLC gravée en 19nm
Mais des utilisateurs ont signalé que le SSD Plus était maintenant fourni sous la référence SDSSDA-240G-G26, avec un contrôleur SMI SM2256S et de la TLC NAND en 15nm

En version 480 Go de cette gamme plus, on est passé d' un controleur Marvell 88SS1074 a du Silicon Motion SM2256S (le même que pour le 120Go) ainsi que de la TLC 19 nm a de la TLC gravée en 15 nm
En revanche, la version de 960 Go diffère puisque ce modèle renferme un contrôleur SM2258XT dont la particularité est de gérer la mémoire TLC 2D et 3D.

Donc avec ces modèles il est impératif également d'utiliser les outils de SANDISK (pour le cache) si toujours équipé en MLC
Evidemment avait été mis le débit séquentiel en écriture, qui avait évolué dans le bon sens, pour par ex le 240Go qui passait à 440 Mo/s contre 350 Mo/s auparavant sans évoquer les soucis possible avec le cache

On pourrait aussi parler de la série Ultra II.

la version de 480 Go embarquait un contrôleur Marvell 88SS9189 et de la mémoire TLC 19 nm (8 puces).
Le produit porte la référence SDSSDHII-480G-G25 et est notamment donné pour un débit en écriture aléatoire pouvant grimper à 83 000 IOPS.

La version vendue ensuite porte la même référence, mais affiche un débit en écriture aléatoire de 80 000 IOPS.
À l'intérieur, on trouve un PCB de taille réduite qui abrite toujours de la mémoire TLC (4 puces), mais celle-ci est à priori en 15 nm tandis que le contrôleur est désormais un Marvell 88SS1074.


Chez SANDISK (pour rappel qui appartient à Western Digital) la valse des composants ce n'est pas nouveau. C'était déjà connu il y a 5 ou 6 ans avec leurs cartes SD et clés USB
Du reste on peut trouver nombre de SSD "No name" qui sont équipés de puces SanDisk 15nm TLC, pas réputées pour leur fiabilité ou SandDisk BICS 64L 3D TLC avec controleur silicon motion (c'est garanti jusqu'à 40 To d'écriture, mais cela peut faire plus. C'est le controleur qui lâche avant)







Et chez INTEL ?

2021-09-04_132635.png

INTEL est le seul,intérrogé par les journalistes d' Extrem Tech à avoir assuré qu'il n'a pas et n'a jamais modifié les composants d'un SSD déjà commercialisé.
Mais Intel se retire du marché des SSD (tout en y gardant un pied)
https://www.comptoir-hardware.com/actus ... gies-.html
https://www.extremetech.com/computing/3 ... e-same-sku





OU EST LE PROBLEME ?


Globalement, les performances de lecture et d'écriture séquentielles peuvent être conformes aux fiches techniques, MAIS (ce qui n'est JAMAIS
indiqué) les performances aléatoires et les vitesses d'écriture soutenues peuvent varier considérablement et avoir un impact important sur les performances réelles.
Idem sur la durée de vie suivant usage car la technologie employée à son mot à dire

Si on fait abstraction de tout ce qui précède et que l'on se réfère uniquement par ex aux SAMSUNG EVO et QVO..
On ne compte plus le nombre de SSD en fin de vie de type QVO, pour une simple raison : Les utilisateurs oublient de dire ou ne savent pas, que l'usage du P2P abusif va au fil du temps flinguer leur SSD, surtout qu'ils s'en servent également comme disque de boot pour l'OS, peuvent aussi faire du traitement vidéo (meme si en amateur, 2h de traitement/montage video monte a 200 go sans problème)

En TLC sur un disque de 256 Go qu’on aura déjà utilisé durant une durée de 5 années la garantie de durée avec l'écriture est de : 256 Go x 1000 cycles = 256 000 Go écrits et effacés, soit 140 Go de données par jour.
Donc en usage courant, la marge est plus que confortable (meme en usage intensif un usage familial tourne autour de 10 à 30 Go/jour)

Il faut cependant revoir cette valeur car les SSD écrivent le plus souvent plus de 1 Mo en mémoire lorsqu’ on demande ce Mo sur le SSD.
En fonction du type de donnée, de la place disponible dans le SSD et de la qualité de flash libre, le SSD écrira 1,5 à 2 Mo pour chaque méga requis. Ce qui revient à 70 Go de données par jour EN PLUS à écrire sur un SSD de 5 ans


Chez Samsung pour les derniers 870 QVO, l'endurance annoncée en écriture est de :
360 / 720 / 1 440 / 2 880 TBW pour les versions 1To / 2To / 4To / 8 To
A comparer avec la gamme EVO
150 /300 /600 /1200 / 2400 TBW pour les versions 256Go / 500Go / 1To / 2To / 4To


On comprend de suite qu'en version QVO il faut se diriger vers les très grandes capacités et que l'on ne voit pas des SSD en QVL (ou QVO Chez Samsung) en 256 Go ou moins

Même si biaisé (comparer EVO et QVO), c'est juste pour mettre en avant qu'il y a des données "connues" des utilisateurs (Encore que certains regardent juste le prix) , et qu'en tant que consommateur, déjà si je choisis de la MLC au lieu de la TLC c'est que j'ai mes raisons (bonnes ou mauvaises) et que pour certains SSD je préfère un bon vieux Marvell que certains Physon ou Silicon Motion dont je ne sais rien sur la durée (outre les changements de performances) , si cela tiendra ou pas, car il est bien connu que ce ne sont pas les puces dont le TBW est indicatif (ex au hasard https://www.papergeek.fr/ssd-duree-de-v ... teur-56798 ) qui lâche en premier mais le contrôleur


Changer la mémoire flash NAND, qui peut avoir un impact important sur les performances, est devenu une pratique courante mais discutable dans
l'industrie des SSD.
Maintenant, cette tendance s'est transformée en un modèle plus inquiétant : certains fabricants de SSD modifient désormais en silence le contrôleur SSD, ce qui a des implications encore plus larges.

Il n'y a pas encore si longtemps, les modèles proposés avec une référence précise, et vendus ne subissaient QUE des améliorations au fil du temps
Au plus loin on se rappelle du M4 qui avait gagné 20% de perfs avec une maj du firmware, ou plus récemment avec le WD Black SN750 (mais ils en ont profité pour le renommer)

Maintenant on ne s'embête plus, on ne fait plus dans l'optimisation logicielle qui nécessite une équipe, mais on mixe diverses solutions matérielles pour réduire les coûts (qui ne se répercutent pas obligatoirement sur le client en prix de vente) en espérant garder les mêmes spécifications (du moins celles qui concernent les écritures séquentielles) et en faisant rédiger les notices de présentations par des cabinets d'avocats afin d'éviter les procès
Les termes les plus usités sont : "jusqu'à " (pour les performances) et "en fonction de" (pour la config matérielle, etc), comme cela personne ne peut se plaindre



La crise COVID a bon dos (d'autant plus que certains sont fabricants de leurs propres puces) et ce qui est mis en avant, c'est que ces changements sont parfois aussi " forcés"  en fonction de la disponibilité de tel ou tel composant (ce qui est vrai)
Néanmoins le but est véritablement de réduire les coûts, augmenter les marges, et le tout au détriment du consommateur
Du reste il va falloir s'attendre à une augmentation de 10 à 20% du prix des composants dans les mois à venir (même pour ceux qui fabriquent le tout comme SAMSUNG)


EN PLUS :

Il ne faut pas croire que cela n'affecte QUE les SSD, c'est la même chose pour divers appareils ou composant, et... Ce n'est pas récent

Ex du Samsung SyncMaster 226BW, dont les tests étaient élogieux (en 2007)
Au début c'était une dalle SAMSUNG (trè bonne, réactive, calibrée) livrée à la presse mondiale, et ensuite ce qui a été livré
- AU-Optronics (moins bon)
- Chi-Mei (encore moins bon)
- CMO (la pire avec une fausseté des couleurs, impossible à régler, de la rémanence, ...)
- CPT (pareil)

Idem avec les cartes mères
Au fil du temps on vire des composants (dont le nombre de VRM) où on y colle des composants de moindre qualité de provenance Chinoise (ou le très bon peut cotoyer le pire, mais là on parle du pire), où on vire des fonctionnalités
Le truc c'est que RIEN ne l'indique. Le modèle et version ne changent pas
A l'usage les gens ont des plantages etc qu ils ne comprennent pas (usage de Ram performantes plus adaptées, moindre refroidissement, vieillissement prématuré des composants etc
Moralité : Lorsqu'une carte mère vient de sortir et est testée il vaut mieux l'acheter que d'attendre X mois ou an


Sources diverses :

https://www.extremetech.com/computing/3 ... -slow-ssds
https://www.computerbase.de/2021-08/970 ... enten-aus/
https://www.computerbase.de/2021-08/wd- ... hreibrate/
https://www.tomshardware.com/features/c ... -downgrade
https://www.comptoir-hardware.com/ (divers articles recoupés avec les sources)
https://www.reddit.com/user/NewMaxx/
Vous ne pouvez pas consulter les pièces jointes insérées à ce message.
Only Amiga... was possible !
Un problème sans solution est un problème mal posé. » (Albert Einstein)
"Tous les patients mentent" Docteur House
Avatar de l’utilisateur
Parisien_entraide
Messages : 9761
Inscription : 02 juin 2012 20:48
Localisation : Je suis dans la matrice :-)

Re: TUTO - Optimiser son SSD

par Parisien_entraide »

Je ne vais pas réinventer la roue donc



ENDURANCE DES SSD avec l'impact du type de NAND, du contrôleur, des technologies implantées, ...



Explications et fonctionnement

Partie 1
https://www.comptoir-hardware.com/actus ... tie-1.html

Partie 2
https://www.comptoir-hardware.com/actus ... nddemayrde
Only Amiga... was possible !
Un problème sans solution est un problème mal posé. » (Albert Einstein)
"Tous les patients mentent" Docteur House
Avatar de l’utilisateur
Parisien_entraide
Messages : 9761
Inscription : 02 juin 2012 20:48
Localisation : Je suis dans la matrice :-)

Re: TUTO - Optimiser son SSD

par Parisien_entraide »

insder.png


SSD Insider ++ la protection efficace contre les ransomwares ?


Des chercheurs en sécurité de Corée du Sud (Inha University, Daegu Institute of Science and Technology et du département de sécurité cyber de l'université Ewha Womans) ainsi que de l'université de Floride Centrale ont exploré une approche de défense originale.

Ces derniers travaillent en effet sur une technique de protection ET de récupération des données compromises qu'ils ont appelée SSD-Insider++.

« SSD-Insider++ est intégré au contrôleur SSD sous forme de micrologiciel. En étant séparé d'une machine hôte, il apporte non seulement une protection des données plus robuste que celles basées sur des logiciels qui sont vulnérables aux attaques évasives, mais propose également une interopérabilité avec diverses plateformes »,


Ce que l'on peut lire dans le résumé de la recherche.

Résumé de recherche
https://www.computer.org/csdl/journal/t ... lFF1xnRD44
ou
https://www.researchgate.net/publicatio ... a_Recovery



Cette trouvaille est composée de deux fonctions:

La détection des ransomwares et la récupération exacte des données, qui sont étroitement intégrées les unes aux autres. L'algorithme de détection observe les modèles d'E/S d'un système hôte et décide si l'hôte est attaqué par des ransomwares à un stade précoce.

Une fois qu'une attaque de chiffrement est détectée, l'activité du SSD est suspendue pour éviter la propagation du ransomware.

A ce moment là, l'algorithme de récupération est déclenché pour rétablir les fichiers d'origine en tirant parti de la fonction d'effacement retardé de la mémoire.

« Nos résultats expérimentaux montrent que SSD-Insider++ atteint une grande précision de détection des ransomwares avec 100% dans la plupart des cas (Wannacry, Mole,...) et fournit une récupération de données instantanée avec 0% de perte de données »,


Ils ajoutent que les attaques sont contenues dans les 10 secondes après la détection

Point intéressant, SSD-Insider++ n’augmente la latence que de 12.8 à 17,3 %, tout au plus, tandis la réduction de débit n’excède pas 8 %.


2021-09-15_173840.png



Cette solution micrologicielle particulière est déployable sur tous les disques SSD actuels.

Néanmoins, d’autres améliorations apportées aux technologies de protection contre les ransomwares peuvent obliger les fabricants à améliorer les performances du contrôleur. Armer un processeur ou des accélérateurs matériels serait par exemple nécessaire.

Cependant, les SSD sont actuellement en train d’intégrer des accélérateurs matériels plus puissants (et plus variés) tels que les FPGA, les NPU et les moteurs de traitement de chiffrement.
Les chercheurs s’attendent donc à ce que des mécanismes de protection plus complexes accompagnent l’écosystème SSD en développement.
La solution de firmware est également théoriquement déployable sur les disques durs SMR (Shingled Magnetic Recording), mais pour l’heure, il n’a pas été testé dans cet environnement.
Vous ne pouvez pas consulter les pièces jointes insérées à ce message.
Only Amiga... was possible !
Un problème sans solution est un problème mal posé. » (Albert Einstein)
"Tous les patients mentent" Docteur House
Avatar de l’utilisateur
Parisien_entraide
Messages : 9761
Inscription : 02 juin 2012 20:48
Localisation : Je suis dans la matrice :-)

Re: TUTO - Optimiser son SSD

par Parisien_entraide »

DEFRAGMENTATION DES SSD


Fragmentation.jpg



Aux vues des interrogations des utilisateurs (justifiées) on peut légitimement se poser la question de ... la défragmentation d'un SSD
Même sur Windows 11, on peut voir apparaître des messages de type (où xxx représente l'unité de disque) une application "Microsoft windows defrag"

- L'optimiseur de Stockage a termine la réoptimisation sur xxxxx
- Défragmentation sur XXXX

Le même soucis apparait sous Windows 10, une fois par mois (enfin un peu moins, tous les 28 jours en fait) avec certaines conditions (Services de restauration, sheduler actifs, ...)


Il s'agit d'une mauvaise traduction du moins il s'agit d'une traduction qui doit dater d'au moins une quinzaine d'années et qui n'a pas été actualisée en fonction du support SSD)


Sous windows 10 et 11, ce n'est pas une défragmentation. Le mot est donc trompeur
C'est une optimisation système. Windows 10 et 11 reconnaissent parfaitement un SSD (Windows 7 aussi) et cette optimisation consiste en .. une commande TRIM

On sait que depuis Windows 7, la commande TRIM, est supportée nativement (détails à la fin de cet article)
Cela a pour but "d'indiquer" (le terme est important) au contrôleur d'un SSD quels sont les blocs de données non utilisés, et donc ceux qu'il peut effacer.
Cela à un lien avec ce qu'on appelle, l amplification d'écriture, et cette commande évite au SSD de voir ses performances diminuer trop rapidement dans le temps.

Avec les anciennes générations de SSD ce n'était pas optimum, et il fallait procéder à un "erase" tous les X ans pour retrouver toute la vitesse de transfert du SSD


Certains éditeurs de programmes proposent toujours des défragmenteurs (il y aurait beaucoup à dire sur le sujet) mais ils jouent sur les deux tableaux car c'est proposé à la fois pour les disques durs, et.. les SSD

Ces outils permettaient d'effectuer en une seule fois ce que fait le TRIM en temps réel mais il y a un lien avec la fragmentation et cela touchait les SSD avec un espace de stockage limité et où l'utilisation de la mémoire qui atteignait un niveau élevé
Parce que OUI un SSD peut se fragmenter, mais le lien est avec le système de fichiers NTFS (je ne parle pas des données)
Cela compensait un firmware non abouti, et ces outils décrits comme des "optimiseurs" permettaient de résoudre la fragmentation extrême et, d'autre part, empêchait les opérations d'écriture inutiles
Néanmoins il fallait que cette l'optimisation de SSD soit complétée par des commandes TRIM régulières.

Ils sont peut etre encore utile sur les SSD achetés sur Wish ou à très bas prix de constructeurs Chinois inconnus surtout dans des tailles de 128Go. Je ne sais et c'est à confirmer

O&O dit bien "résout et empêche la fragmentation extrême "
Defraggler fait la même chose : https://www.ccleaner.com/docs/defraggle ... r-and-ssds

Pour les autres https://www.malekal.com/meilleurs-logic ... on-disque/


Dans le cas présent :
https://www.oo-software.com/en/products/oodefrag

Au jour où je tapote, on en est à la version 29 mais dans la version 19 il était écrit :
______
"Le nouveau O & O Defrag19 apporte également un optimiseur SSD qui améliore la structure réelle d'un système de fichiers SSD. Depuis leur introduction, des discussions sont en cours pour savoir si les disques SSD peuvent être défragmentés ou non.
En théorie, il est à peine nécessaire, car ils fonctionnent si rapidement et que la durée de vie du lecteur est réduite au fur et à mesure des accès en écriture. Une défragmentation complète n’est ni nécessaire ni souhaitable. Cela a toujours été pris en compte avec O & O Defrag.

Malgré cela, les systèmes de fichiers SSD souffrent d'une fragmentation inhérente des données, tout comme un disque dur traditionnel. Cela peut être particulièrement élevé avec des modèles moins chers avec un espace de stockage limité et où l'utilisation de la mémoire a atteint un niveau élevé.
Cette fragmentation réduit les performances de lecture et d'écriture. Lorsque des fichiers très fragmentés sont réécrits, les performances de nivellement de l'usure sont également réduites.
Le système de fichiers NTFS atteint également rapidement ses limites de performances en cas de fragmentation extrême.

C'est pourquoi O & O Defrag 19 fournit désormais un optimiseur pour les disques SSD qui, d'une part, résout et empêche la fragmentation extrême et, d'autre part, empêche les opérations d'écriture inutiles et que l'optimisation SSD est complétée par des commandes TRIM régulières.

-----------------------------------


Effectivement, il s'agit bien d'une optimisation plus qu'une défragmentation, et qui consiste à remettre la commande TRIM à zéro

Microsoft parle d'une limitation du NTFS qui peut dans des cas très spécifiques poser des problèmes d'accès à des fichiers très fragmentés pour (très certainement) des fichiers très volumineux.

Pour compenser la chose, voir cet articule sur le site : https://www.malekal.com/fsutil-optimise ... _de_la_MFT


Cela n'est pas à confondre avec certaines "optimisations" que l'on retrouve sur des programmes... Payants ou gratuits, et qui sont des abérrations :
Ex : https://www.malekal.com/optimiser-accel ... moire_NTFS
Dans la fonction qui apparait sur ce lien on a l'impression que le terme n'est pas adapté car la description ne correspond pas à une augmentation des bufffers, (on peut le supposer sinon du fait de plantages il y aurait eu des retours et cela aurait été supprimé)
Cependant j'ai voulu en avoir le coeur net et après installation du programme de tweak, c'est la seule fonction qu'il m'est demandé d'activer et qu'il me reste à "optimiser" (terme fallacieux)
Je testerai en réel (pour voir ce qui est inscrit dans le registre ) pour voir si on parle bien de la même chose
A noter qu'il y a eu un arrêt de ce programme (on ne sait les raisons si ce n'est que la raison d'être de ces programmes étaient surtout pour le TRIM sous XP, puisque cela n'était pas géré (et parfois sous Win7 sous certaines conditions)
http://www.totalidea.com/products/tweak-ssd/index.php



le "large system cache"

La clé affectée :

Code : Tout sélectionner

HKEY LOCAL MACHINE\System\CurrentControlSet\Control\Session Manager\Memory Management
DWORD "LargeSystemCache" =1
Cela n'affectait que les systèmes en 32Bits et si on avait de l'AGP cela pouvait meme entrainer un arret complet de windows
Sur du 64bits. aucun effet si ce n'est les inconvénients décrits dans le lien assiste.com (risque de plantage par ex)
https://assiste.com/Cache_disque.html


Idem pour le IoPageLockLimit

Code : Tout sélectionner

HKEY LOCAL MACHINE\System\CurrentControlSet\Control\Session Manager\Memory Management
DWORD "IoPageLockLimit" = F0000


Pourquoi "défragmenter"/optimiser quand même de temps en temps un SSD ?

Le problème c’est que le système de fichiers utilisé par Windows, le NTFS, n’a pas du tout été prévu pour être utilisé sur des SSD (qui n’existaient pas à l’époque)

Avec le NTFS, Windows va stocker pour chaque fichier une “table d’allocation” où seront répertoriés les différents “morceaux” du fichier.
Pour lire un fichier, il va donc lire cette table, puis lire les différents morceaux dans l’ordre.

Sauf que cette table, d’une part devient vite complexe à lire quand le nombre de fragments augmente, et d’autre part ne peut contenir qu’un nombre de fragments limité

Plus exactement, le NTFS va allouer une table de taille limitée contenant d’autres tables de tailles elles mêmes limitées pour y stocker les positions des fragments.
Si le fichier est peu fragmenté, il n’y aura donc qu’une seule table à consulter.
Si le fichier devient plus fragmenté, il faudra consulter plusieurs tables (c’est un petit peu plus long mais rarement perceptible). Et si le fichier devient vraiment très fragmenté, le nombre de tables peut carrément ne plus suffire



Pourquoi faut il défragmenter un SSD et pourquoi il ne faut pas

https://www.olivierhuet.fr/blog/2014120 ... est-utile/




Ce qu'on peut lire ailleurs

" L'optimiseur de stockage défragmentera un SSD une fois par mois si les instantanés de volume sont activés.

C'est par conception et nécessaire en raison de la lenteur de la copie Volsnap sur les performances d'écriture sur les volumes SSD fragmentés.
C'est aussi une idée fausse que la fragmentation n'est pas un problème sur les SSD.
Si un SSD est trop fragmenté, vous pouvez atteindre une fragmentation maximale des fichiers (lorsque les métadonnées ne peuvent plus représenter de fragments de fichiers), ce qui entraînera des erreurs lorsque vous essayez d'écrire/d'étendre un fichier. De plus, plus de fragments de fichiers signifient plus de métadonnées à traiter lors de la lecture/écriture d'un fichier, ce qui peut ralentir les performances."


Ce qu'il faut préciser : Quand il est dit instantanés de volume ou "volsnap", cela désigne le système de cliché instantané de volume sous Windows. Ceci est utilisé et activé par la restauration du système Windows lorsqu'elle prend un instantané de votre système et l'enregistre afin que vous puissiez revenir à un état précédent du système.


La commande Defrag ne fonctionnera donc sur votre SSD que SI volsnap est activé, et volsnap est activé par la restauration du système car l'un a besoin de l'autre.
Vous pouvez désactiver la restauration du système si vous le souhaitez, mais cela désactive une fonction considérée comme de sécurité assez importante pour Windows.
Cela avait déjà été constaté sous Windows 8.1 qu'en est il aujourd'hui ?
On ne sait pas. Malgré les rapports de bogues du temps de windwos 8, etc Microsoft n'a jamais répondu et le soucis existait encore dans les premières moutures de Windows 10


A la lecture de tout cela on comprend mieux que la fragmentation, même si le problème de performances est moindre sur les SSD par rapport aux disques durs traditionnels est toujours un problème :

Les SSD *peuvent* être fragmentés.

Seulement il ne faut pas raisonner en termes de disposition des fichiers sur l'unité de disque, comme sur les disques durs
il n'y a pas, volontairement, de stockage contigu (c'est-à-dire séquentiel) dans un SSD. Les bits sont éparpillés sur les matrices disponibles par le contrôleur de la manière qu'il juge la plus efficace.

Lorsqu'un disque dur est fragmenté, un fichier peut exister en plusieurs morceaux à différents emplacements sur un lecteur physique.
Ce lecteur physique doit ensuite chercher à collecter des éléments du fichier, ce qui prend plus de temps.

Ce type de fragmentation se produit toujours sur les SSD, même si leurs caractéristiques de performances sont très différentes car il ne faut pas oublier ce qui fait la force d'un SSD : Le temps d'accès

Donc dans la" position" des données cela n'a pas d'impact sur les performances, contrairement à un disque dur qui doit déplacer sa tête de lecture pour chaque cluster.
La seconde raison, c'est que l'agencement logique du SSD (le cluster 2 suit le cluster 1 et précède le cluster 3, etc.) n'est pas le même que l'agencement physique, géré par le contrôleur.
Le cluster 1 est peut-être sur la troisième puce de mémoire, le cluster 2 sur la première et le cluster 3 sur la huitième

Néanmoins, les métadonnées des systèmes de fichiers gardent une trace des fragments et ne peuvent en garder qu'un nombre limité.
La défragmentation dans des cas comme celui-ci est non seulement utile, mais absolument nécessaire.



Sur le TRIM

En informatique, trim (mot anglais pouvant signifier : réduire, tailler, bien arranger, ...) est une commande qui permet à un système d’exploitation d'indiquer à un contrôleur de stockage de type mémoire flash (SSD) quels blocs de données ne sont plus utilisés et peuvent donc être effacés. Cette commande améliore les performances d'accès aux SSD.
Source et détails https://fr.wikipedia.org/wiki/Trim_(informatique)


Je cite :

Les SSD ont également le concept de TRIM.
Bien que TRIM (retrim) soit un concept distinct de la fragmentation, il est toujours géré par le sous-système Windows Storage Optimizer et la planification est gérée par la même interface utilisateur du point de vue de l'utilisateur. TRIM est un moyen pour les SSD de marquer les blocs de données comme non utilisés.
L'écriture sur des blocs vides sur un SSD est plus rapide que l'écriture sur des blocs en cours d'utilisation, car ceux-ci doivent être effacés avant d'y écrire à nouveau.
Les SSD fonctionnent en interne très différemment des disques durs traditionnels et ne savent généralement pas quels secteurs sont utilisés et quel est l'espace libre.
Supprimer quelque chose signifie le marquer comme non utilisé.
TRIM permet au système d'exploitation d'informer le SSD qu'une page n'est plus utilisée et cet indice donne au SSD plus d'informations, ce qui se traduit par moins d'écritures et une durée de vie théoriquement plus longue.


Il faut se rappeler que l''ensemble de l'interaction OS et SSD repose sur les principes d'un héritage des disques durs
Le système d'exploitation écrit dans les LBA et les marque libres lorsque vous supprimez des fichiers.
Le SSD lui n'en a aucune idée, et c'est pourquoi il a besoin de TRIM pour apprendre que ces LBA sont disponibles.

Cela pose problèmes évidemment pour la récupération de fichiers si le TRIM est efffectué


CONCLUSION


NON, Windows n'exécute pas bêtement ou aveuglément une défragmentation sur votre SSD toutes les nuits, et NON la défragmentation Windows ne raccourcit pas inutilement la durée de vie de votre SSD.
Les SSD modernes ne fonctionnent pas de la même manière que celle à laquelle nous sommes habitués avec les disques durs traditionnels.

OUI, le système de fichiers de votre SSD a parfois besoin d'une sorte de défragmentation et celle-ci est gérée par Windows, mensuellement par défaut, le cas échéant.
L'objectif est de maximiser les performances et une longue durée de vie pour votre SSD.
Si vous désactivez complètement la défragmentation (elire le problème de la désactivation de la restauration système un peu plus haut par ex), vous courez le risque que les métadonnées de votre système de fichiers atteignent une fragmentation maximale et vous causent potentiellement des ennuis.


Moralité : Laisser faire Windows dans le cadre de ses tâches de maintenance.(il fait la même chose pour les disques durs et s'active sur ceux ci si la fragmentation est supérieure à 10%)
La tâche planifiée vérifie chaque semaine si le SSD a été défragmenté au cours des 28 derniers jours, et s'il ne l'a pas été, il défragmente. Sinon, il vérifie à nouveau la semaine suivante

Cependant, les SSD traitent les commandes TRIM comme des "suggestions", pas comme des commandes
Le système d'exploitation supprime un fichier → marque les LBA comme libres → envoie une commande TRIM au contrôleur.
Le système d'exploitation sait déjà que ces LBA sont disponibles et le contrôleur ne dit rien au système d'exploitation à leur sujet.
Les différents contrôleurs, leur firmware, leur conception etc ont donc AUSSI leur mot à dire et feront au mieux pour leur modèle de SSD (et il n'y a pas que le TRIM et Re-TRIM dans la gestion du SSD) tout comme le contrôleur SSD interne sait combien il y a de cellules défectueuses et pas Windows

On peut le voir dans des programmes d'analyses comme Crystal Disk Info, qui ne donnera pas obligatoirement les memes infos que l'outil du constructeur du SSD
Suivant les marques, les modèles, version de firmware, et que l'on soit en Sata ou PCI (NVMe) le nombre de données qui apparaissent dans CrystalDisk peuvent donc différer (et du restes dans d'autres logiciels, et pire dans l'analyse)
L'avantage : Crystal Disk indiquera que certaines valeurs "C x" sont désastreuses alors que pour le programme du constructeur (Samsung Magician, Crucial Storage par ex) tout est parfait (ouf :-)
Donc hormis l'indicateur de l état de santé,global qui affiche du Bleu, jaune ou rouge, le reste "peut" être sujet à caution
Même le % sur l'état de santé n'est pas représentatif (qui prend en compte le nombre d'écriture dont la durée de vie "théorique" du SSD)

On a pu le voir également plus ou moins récemment chez Samsung par ex avec sa série EVO qui avait le souci du SSD qui ralentissait au fil du temps du fait de la fragmentation. Cela a été corrigé avec un nouveau firmware
Comme quoi le firmware est important






FINALEMENT


FAUT IL DEFRAGMENTER UN SSD ?


Pour faire court

Pour rappel, sur un SSD il n'y a pas de plateau mais des cellules
Chaque cellule du SSD répond à la même vitesse, donc que les données soient répartis un peu partout cela ne changera rien à la vitesse d'accès (enfin si mais l'impact est plus qu'insignifiant. La différence en 0.10 et 0.15ms n'est pas .. visible, du reste cette valeur est surement fausse mais c'est pour l'exemple)

En plus chaque cellule d’un SSD ne supporte qu’un nombre limité d’écriture.
En défragmentant, on va déplacer une grande quantité de données et donc consommer des cycles d’écritures

Du reste le contrôleur du SSD est content lui que ce soit fragmenté, car il s'occupe de réorganiser le stockage des différents clusters dans des cellules non contiguës
Le but ? Optimiser le nombre d'écriture pour chaque cellule puisque comme indiqué plus haut, le SSD a un nombre limité d'écritures

Si cela vous arrive par mégarde avec certains outils, bien que la fonction soit désactivée par défaut dans Windows et si vous avez tout compris il ne s'agit QUE d'une optimisation, et que les programmes de défragmentation "normalement" la désactive également en présence d'un SSD, ce n'est pas grave, mais il faut éviter de le faire

https://www.crucial.fr/support/articles ... mance-loss

Si après un usage de X mois ou années vous notez une diminution des performances de votre SSD. La seule vraie solution alors est un "disk erase" (un sanitize en fait), néanmoins des SDD comme chez CRUCIAL ou SAMSUNG ont des routines évoluées et se débrouillent seuls


Ce qu'il faut se rappeler :

Storage Optimizer défragmentera un disque SSD une fois par mois si les instantanés de volume sont activés.
Cela est nécessaire par nature à cause de la lenteur de la copie sur volsnap en écriture sur les volumes SSD fragmentés.
C’est aussi une idée fausse que la fragmentation ne soit pas un problème sur les disques SSD.
Si un disque SSD devient trop fragmenté, vous pouvez utiliser la fragmentation maximale de fichier (lorsque les métadonnées ne peuvent plus représenter de fragments de fichier), ce qui entraînera des erreurs lorsque vous tentez d’écrire / d’étendre un fichier.
De plus, plus de fragments de fichiers signifie plus de métadonnées à traiter lors de la lecture / écriture d'un fichier, ce qui peut ralentir les performances( voir la partie sur le NTFS)


En ce qui concerne Retrim, cette commande doit être exécutée selon la planification spécifiée dans l'interface utilisateur de dfrgui.
Retrim est nécessaire en raison de la manière dont TRIM est traité dans les systèmes de fichiers.
En raison des performances variables du matériel répondant à TRIM, TRIM est traité de manière asynchrone par le système de fichiers.
Lorsqu'un fichier est supprimé ou que l'espace est libéré, le système de fichiers met en file d'attente la demande de rognage à traiter.
Pour limiter l'utilisation maximale des ressources, cette file d'attente peut uniquement atteindre un nombre maximal de demandes de rognage.
Si la file d'attente est de taille maximale, les demandes TRIM entrantes peuvent être supprimées.
Ce n'est pas grave,car il est effectué périodiquement un Retrim avec Storage Optimizer.
Le rappel est effectué avec une granularité qui évite d’atteindre la taille maximale de la file d’attente de requête TRIM où les TRIM sont supprimés.


La commande TRIM a plutôt tendance à économiser de la durée de vie, vu que cela évite au SSD de faire un cycle de Garbage Collector pour rien.

Et en tant que tel le TRIM ne consomme pas d'écriture.

C'est juste marquer dans la table d'allocation tels secteurs comme vides.
Le SSD ne fait pas du TRIM lui-même mais du Garbage Collector.
C'est le même but, mais pas du tout la même opération. Et le garbage collector est bien plus pénalisant pour les perfs/la durée de vie.
Le soucis c'est que ce n'est pas toujours explicite (on le voit par ex avec la fonction d'optimisation de l'outils Samsung Magician qui propose une "optimisation" et ne parle que de TRIM. En fait on ne sait ce qui est effectué derrière




Sur la Tâche planifiée

Source : https://docs.microsoft.com/fr-fr/window ... duled-task
(je copie colle au cas où cela disparaîtrait du site Microsoft)


Le processus de défragmentation exécute la tâche planifiée en tant que tâche de maintenance, qui s’exécute généralement toutes les semaines. En tant qu’administrateur, vous pouvez modifier la fréquence d’exécution de la tâche à l’aide de l’application optimiser les lecteurs .

Lorsqu’elle est exécutée à partir de la tâche planifiée, Defrag utilise les instructions de stratégie ci-dessous pour les disques SSD :
  • Processus d’optimisation traditionnels. Comprend une défragmentation traditionnelle, par exemple le déplacement de fichiers afin de les rendre raisonnablement contigus et de les réajuster. Cette opération est effectuée une fois par mois. Toutefois, si la défragmentation et la réajustement classiques sont ignorés, l' analyse n’est pas exécutée. La modification de la fréquence de la tâche planifiée n’affecte pas la cadence d’une fois par mois pour les disques SSD.
  • Si vous exécutez manuellement la défragmentation traditionnelle sur un disque SSD, entre les exécutions planifiées normalement, l’exécution de la tâche planifiée suivante effectue une analyse et une réajustement, mais ignore la défragmentation traditionnelle sur ce disque SSD.
  • Si vous ignorez l' analyse, vous ne verrez pas l’heure de la dernière exécution mise à jour dans l’application optimiser les lecteurs . C’est la raison pour laquelle l’heure de la dernière exécution peut être antérieure à un mois.
Vous pouvez constater que la tâche planifiée n’a pas défragmenté tous les volumes. C’est généralement le fait que :
  • Le processus ne sortira pas l’ordinateur pour qu’il s’exécute.
  • L’ordinateur n’est pas branché. Le processus ne s’exécute pas si l’ordinateur fonctionne sur batterie.
  • L’ordinateur a démarré la sauvegarde (reprise à partir de l’inactivité).




2022-01-14_142109.jpg

https://www.thessdreview.com/daily-news ... -primer/2/


___________________________________


SOUS WINDOWS 7


Accessoirement pour ceux qui continuent d'utiliser Windows 7 (et il y a encore pas mal d'utilisateurs lorsqu'on lit les forums) et qui installent un SSD sur un vieux PC (vieux est.. relatif) j'avais été confronté à un soucis :

Trimcheck ne donnait pas de retour d'un TRIM actif tant que n'avait pas été installé le pilote de son contrôleur SATA
Dans le cas présent il s'agissait des pilotes Intel RST (qui depuis leur version 9.6 supportent le TRIM)

Il faut donc se rappeler que le mode AHCI n'était pas actif par défaut dans le bios des carte mères et qu'il ne fallait pas oublier d'installer les pilotes des contrôleurs tiers SATA (même si le AHCI n'est pas indispensable pour le TRIM car cela fonctionne en IDE, c'est le pîlote qui doit le supporter)
Certains contrôleurs SATA pouvaient mettre le bazar (Certains Marvell par ex sur CM bureautiques, comprendre bas de gamme)
Sans compter les anciens SSD qui n'en tenaient pas compte, ou des SSD avec firmware buggué (OCZ vertex le bien connu :-)

Bref il faut que toute la chaîne supporte le TRIM (en fin de chaîne il faut que le SSD interprète la commande)


Et là aussi pour rappel sur l'usage de TrimCheck

La commande "fsutil behavior query disabledeletenotify" ne fait qu'indiquer si le TRIM est possible, mais elle n'indique aucunement si il est actif
A la place de la commande fsutil, il faut utiliser TrimCheck http://files.thecybershadow.net/trimcheck/

Comme le précise Marc Prieur (hardware.fr) "Cette commande n'a jamais rien indiqué d'autre que l'activation du TRIM au niveau de l'OS, cela ne veut en aucun cas dire que la commande passe au travers du pilote AHCI/RAID et arrive au SSD"

Pour l'usage, il faut bien attendre une vingtaine de secondes, après avoir quitté le programme
Juste avant le programme a écrit le fichier "trimcheck-cont.json"
Ensuite on relance et là on a le résultat

Si le TRIM est inactif, il est impératif d'effacer le fichier trimcheck-cont.json afin d'utiliser TrimCheck à nouveau, une fois qu'on aura trouvé la correction du problème (pilotes par ex,...) sinon le résultat sera le même





Se rappeler quand même :

- Sous Windows 7 la planification de l'optimisation était désactivée par défaut mais le TRIM était déjà là et fonctionnel à la sortie de Windows version finale en 2009, et il était normal que le défragmenteur soit désactivé, puisque cela n'a rien à voir avec une "défragmentation" comme pour les disque durs (pas la peine d'expliquer la différence , relire ce qui a été dit ci dessus))
- Sous Windows 10, la planification de l'optimisation est activée

C'est l'outil de défragmentation (defrag.exe) qui comprend l'optimiseur (Optimiseur de stockage ) du moins cela a commencé comme cela avec Win8
Dans le menu par contre c'est indiqué "optimiser (avec une tâche planifiée) et il est vrai que si on regarde le nom defrag.exe, on pourrait penser à défragmentation

Ensuite que cette optimisation soit nécessaire.. C'est lié aux SSD, à leur firmware (capables ou pas)
Et comme il était dit un peu plus haut "cela touche plus les SSD avec un espace de stockage limité et où l'utilisation de la mémoire atteint un niveau élevé" (d'où l'apparition de programmes de défragmentations de SSD)




_________________

PS : J'ai compilé plusieurs de mes archives dans cet article (issus d'un autre forum où je m'étais exprimé). Je relirai à tête reposé car certains paragraphes doivent être regroupés, là je suis pris par le temps

Sources principales et pour approfondir :


https://social.technet.microsoft.com/Fo ... og-scottha
http://blogs.technet.com/b/askcore/arch ... rowth.aspx
https://docs.microsoft.com/fr-fr/window ... duled-task
https://www.thessdreview.com/daily-news ... -primer/2/
https://www.outsidethebox.ms/why-window ... void-this/

Je suis désolé pour mes autres sources, telles que MSDN, mais Microsoft a tout effacé depuis la réorganisation de ses serveurs et mes cours renvoyaient à ces liens


Il y avait un lien qui disait par ex :

Comment la fragmentation sur des volumes NTFS mal formatés affecte Exchange ?
"NTFS a ses limites avec le la taille globale de cette liste d'attributs par fichier et peut avoir environ 1,5 million de fragments.Ce n'est pas un maximum absolu, mais c'est autour de la zone où des problèmes peuvent survenir."
Vous ne pouvez pas consulter les pièces jointes insérées à ce message.
Only Amiga... was possible !
Un problème sans solution est un problème mal posé. » (Albert Einstein)
"Tous les patients mentent" Docteur House
  • Sujets similaires
    Réponses
    Vues
    Dernier message

Revenir à « Sites et liens utiles »