🛡️ TUTO - Optimiser son SSD
- Messages : 726
- Inscription : 24 déc. 2009 13:31
- Localisation : Perpignan
Re: TUTO - Optimiser son SSD
Bonjour,
C'est la même chose pour les SSD M.2 NVMe ?
Merci
C'est la même chose pour les SSD M.2 NVMe ?
Merci
---
CPU : AMD Ryzen 5 5600G 3.9 GHz 6-Core,
CM : MSI B550M PRO VDH WiFi,
RAM : G.Skill 16 GB (2 x 8 GB) DDR4-3200,
SSD (système) : 1 To M.2 NVMe Samsung 990 EVO,
HDD : WD 2,5' 1 To
AIO : be quiet! Pure Base 500 ATX,
PSU : SeaSonic FOCUS GX 650 W 80+ Gold -
---Windows 11 Home x64 - Firefox---
Anthony
CPU : AMD Ryzen 5 5600G 3.9 GHz 6-Core,
CM : MSI B550M PRO VDH WiFi,
RAM : G.Skill 16 GB (2 x 8 GB) DDR4-3200,
SSD (système) : 1 To M.2 NVMe Samsung 990 EVO,
HDD : WD 2,5' 1 To
AIO : be quiet! Pure Base 500 ATX,
PSU : SeaSonic FOCUS GX 650 W 80+ Gold -
---Windows 11 Home x64 - Firefox---
Anthony
- Messages : 19570
- Inscription : 02 juin 2012 20:48
- Localisation : Thomas Anderson : Je suis dans et en dehors de la matrice :-)
Re: TUTO - Optimiser son SSD
Bonjour,
NON
Il n'y a pas de contrôleur série 2000
Je sais qu'il y a quelques années en M2 NVME Sandforce avait sorti la série 3000 dont les SF3500, SF3700 mais depuis je ne sais
NON
Il n'y a pas de contrôleur série 2000
Je sais qu'il y a quelques années en M2 NVME Sandforce avait sorti la série 3000 dont les SF3500, SF3700 mais depuis je ne sais
- Only Amiga... Was possible ! Lien https://forum.malekal.com/viewtopic.php?t=60830
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- Messages : 19570
- Inscription : 02 juin 2012 20:48
- Localisation : Thomas Anderson : Je suis dans et en dehors de la matrice :-)
SSD Sata contre PCIe
Dans le dernier Hardware MAG, (N°° 109 de décembre/janvier)
"Quel SSD pour votre PC Gamer ? Sata vs PCI 3.0 vs PCI 4.0
Seul bémol, qui n'est pas indiqué, c'est que certains,encore récemment, NVMe prévus pour du PCIe 4.0 sortaient avec un protocole NVMe en 1.3c (même la 1.3d n'était pas adoptée alors que sortie au premier trimestre 2018)
alors que l'avantage du protocole 1.4 :
"Le cache des SSD est revu aussi et dispose d'une nouvelle fonction : le PMR - Persistante Memory Region - dont le but est de faire des transferts de données directs via le PCIe sans devoir faire passer les informations par le processeur. En gros, les données sont traitées directement depuis le cache du SSD, réduisant la latence et surtout le nombre d'écritures persistantes sur la mémoire flash, permettant d'augmenter l'endurance des SSD utilisés dans les serveurs ou pour les OS."
Dans les "petites" optimisations que l'on retrouve, il y a une amélioration de la latence prévisible pour éviter que les opérations de fond réalisées par le SSD - TRIM, Garbage Collector - ne soient gênantes lorsque votre système demandera à réaliser une opération d'écriture/lecture/effacement sur le SSD."
Aux vues des SSD testés, il faudrait s'en assurer en fait
Je passe sur le protocole, support et choix des SSD, (qui a son incidence) mais je ne vais pas retaper l'article :
Néanmoins
Se rappeler que pour l'instant le PCIe 4 n'est accessible que sur plate forme AMD et Rezyzen 3000, et 5000 équipés d'une carte mère B550 ou X570
Tests en PCIe 4.0 : Corsait MP600 1 To et Seagate FireCuda 520 de 1 To
Tests en PCIe 3.0 : Corsair MP510 960Go, Corsair MP400 4 To, Crucial P1 de 1 TO et Samsung 960 EVO
Tests en SATA : Crucial BX500 500Go, Crucial MX 500 1 To, Samsung 860 Pro
Le test du disque dur a été effectué avec un WD RED 4 To (choix de nombre d'utilisateurs, car qui achète encore un WD Black en 2020 à l'ère du SSD ? (sic)
Boot de Windows 10
PCI 4.0 Nvme : 11.7
PCI 3.0 NVme : 12.7
SATA SSD : 14.4 (sur un Win7 PC de 2013 Sandy Bridge et SATA perso j'ai 12.2)
SATA HD en 5 400Tpm : 23.6
JEU BATTLFIEDD V (mais pour les autres jeux c'est presque à l'identique)
PCI 4.0 Nvme : 17.3
PCI 3.0 NVme : 17.4
SATA SSD : 18.2
SATA HD en 5 400Tpm : 24.5
Il y a eu 7 jeux testés, et il est possible de voir une différence dans "The Division 2" de 6 s entre du SATA SSD et du PCI4 NVme, et de 3 s entre du PCI3 Nvme et PCI 4 Nvvme (idem pour Horizon Zero Dawn)
Aucune différence flagrante par contre sur Red Dead Redemtion 2 ( 1 sec d'écart chacun)
-----------
Edit du 14/09/2022
Comme a pu le voir avec l'arrivée du PCIe 4 et 5, mais également des protocole NVMe en corrélation actuellement on peut noter quelques avantages notables
Avec un Samsung SSD 990 PRO NVMe et le jeu FORSPOKEN, le temps de chargement de la carte était d’environ une seconde, contre quatre secondes pour un SSD SATA et 28 secondes pour un disque dur traditionnel (HDD).
Malheureusement on n'a pas de comparaison avec les autres SSD
La vitesse de lecture séquentielle théorique la plus élevée de PCIe 4.0 est de 8000 Mo/s – le SSD 990 PRO culmine à 7 450 Mo/s. et les vitesses de lecture et d’écriture aléatoires atteignent respectivement jusqu’à 1 400K et 1 550K IOPS.
Cela représente jusqu’à 55 % d’amélioration des performances aléatoires par rapport au SSD 980 PRO.
On se rapproche donc du théorique et il ne sera pas étonnant d'ici quelques temps de voir une saturation tout comme avec le SATA du PCIe4
A savoir qu'il y a des SSD SAMSUNG pour le monde industriel, utilisant le PCIe 5 avec des valeurs jusqu'à 2 500K IOPS
Tout cela est bon pour "Direct Storage" mais encore faut il que les jeux/applis en tiennent compte (ce qui est le cas sur consoles et pas sur PC)
Sinon pour rappel, ces vitesses ne feront pas de vous un meilleur joueur :-) et l'augmentation de la bande passante de Gen 5 ne se traduit pas automatiquement par de meilleures performances UTILISABLES.
Les performances du MONDE RÉEL sont indiquées par des opérations de lecture/écriture ALÉATOIRES, et non séquentielles. Les augmentations des performances aléatoires proviennent des améliorations des puces NAND, du controleur NVMe, et non de l'interface PCIE
Après est ce une révolution que ce nouveau modèle de chez SAMSUNG ?
Crucial a déjà un SSD NVme Gen5 presque prêt... le PCIe 5 on le verra partout en 2023 (même si derrière cela ne suit pas pour l'exploiter, pour l'aspect marketing "gamer" cela à un impact que de dire avoir un SSD NVMe PCIe5)
En tous les cas il faut savoir que la norme PCIe7 est déjà définie...et pour le tout 4k, l'IA etc qu'on nous promet ca sera le passage obligé dans.. X années :-)
"Quel SSD pour votre PC Gamer ? Sata vs PCI 3.0 vs PCI 4.0
Seul bémol, qui n'est pas indiqué, c'est que certains,encore récemment, NVMe prévus pour du PCIe 4.0 sortaient avec un protocole NVMe en 1.3c (même la 1.3d n'était pas adoptée alors que sortie au premier trimestre 2018)
alors que l'avantage du protocole 1.4 :
"Le cache des SSD est revu aussi et dispose d'une nouvelle fonction : le PMR - Persistante Memory Region - dont le but est de faire des transferts de données directs via le PCIe sans devoir faire passer les informations par le processeur. En gros, les données sont traitées directement depuis le cache du SSD, réduisant la latence et surtout le nombre d'écritures persistantes sur la mémoire flash, permettant d'augmenter l'endurance des SSD utilisés dans les serveurs ou pour les OS."
Dans les "petites" optimisations que l'on retrouve, il y a une amélioration de la latence prévisible pour éviter que les opérations de fond réalisées par le SSD - TRIM, Garbage Collector - ne soient gênantes lorsque votre système demandera à réaliser une opération d'écriture/lecture/effacement sur le SSD."
Aux vues des SSD testés, il faudrait s'en assurer en fait
Je passe sur le protocole, support et choix des SSD, (qui a son incidence) mais je ne vais pas retaper l'article :
Néanmoins
Se rappeler que pour l'instant le PCIe 4 n'est accessible que sur plate forme AMD et Rezyzen 3000, et 5000 équipés d'une carte mère B550 ou X570
Tests en PCIe 4.0 : Corsait MP600 1 To et Seagate FireCuda 520 de 1 To
Tests en PCIe 3.0 : Corsair MP510 960Go, Corsair MP400 4 To, Crucial P1 de 1 TO et Samsung 960 EVO
Tests en SATA : Crucial BX500 500Go, Crucial MX 500 1 To, Samsung 860 Pro
Le test du disque dur a été effectué avec un WD RED 4 To (choix de nombre d'utilisateurs, car qui achète encore un WD Black en 2020 à l'ère du SSD ? (sic)
Boot de Windows 10
PCI 4.0 Nvme : 11.7
PCI 3.0 NVme : 12.7
SATA SSD : 14.4 (sur un Win7 PC de 2013 Sandy Bridge et SATA perso j'ai 12.2)
SATA HD en 5 400Tpm : 23.6
JEU BATTLFIEDD V (mais pour les autres jeux c'est presque à l'identique)
PCI 4.0 Nvme : 17.3
PCI 3.0 NVme : 17.4
SATA SSD : 18.2
SATA HD en 5 400Tpm : 24.5
Il y a eu 7 jeux testés, et il est possible de voir une différence dans "The Division 2" de 6 s entre du SATA SSD et du PCI4 NVme, et de 3 s entre du PCI3 Nvme et PCI 4 Nvvme (idem pour Horizon Zero Dawn)
Aucune différence flagrante par contre sur Red Dead Redemtion 2 ( 1 sec d'écart chacun)
-----------
Edit du 14/09/2022
Comme a pu le voir avec l'arrivée du PCIe 4 et 5, mais également des protocole NVMe en corrélation actuellement on peut noter quelques avantages notables
Avec un Samsung SSD 990 PRO NVMe et le jeu FORSPOKEN, le temps de chargement de la carte était d’environ une seconde, contre quatre secondes pour un SSD SATA et 28 secondes pour un disque dur traditionnel (HDD).
Malheureusement on n'a pas de comparaison avec les autres SSD
La vitesse de lecture séquentielle théorique la plus élevée de PCIe 4.0 est de 8000 Mo/s – le SSD 990 PRO culmine à 7 450 Mo/s. et les vitesses de lecture et d’écriture aléatoires atteignent respectivement jusqu’à 1 400K et 1 550K IOPS.
Cela représente jusqu’à 55 % d’amélioration des performances aléatoires par rapport au SSD 980 PRO.
On se rapproche donc du théorique et il ne sera pas étonnant d'ici quelques temps de voir une saturation tout comme avec le SATA du PCIe4
A savoir qu'il y a des SSD SAMSUNG pour le monde industriel, utilisant le PCIe 5 avec des valeurs jusqu'à 2 500K IOPS
Tout cela est bon pour "Direct Storage" mais encore faut il que les jeux/applis en tiennent compte (ce qui est le cas sur consoles et pas sur PC)
Sinon pour rappel, ces vitesses ne feront pas de vous un meilleur joueur :-) et l'augmentation de la bande passante de Gen 5 ne se traduit pas automatiquement par de meilleures performances UTILISABLES.
Les performances du MONDE RÉEL sont indiquées par des opérations de lecture/écriture ALÉATOIRES, et non séquentielles. Les augmentations des performances aléatoires proviennent des améliorations des puces NAND, du controleur NVMe, et non de l'interface PCIE
Après est ce une révolution que ce nouveau modèle de chez SAMSUNG ?
Crucial a déjà un SSD NVme Gen5 presque prêt... le PCIe 5 on le verra partout en 2023 (même si derrière cela ne suit pas pour l'exploiter, pour l'aspect marketing "gamer" cela à un impact que de dire avoir un SSD NVMe PCIe5)
En tous les cas il faut savoir que la norme PCIe7 est déjà définie...et pour le tout 4k, l'IA etc qu'on nous promet ca sera le passage obligé dans.. X années :-)
- Only Amiga... Was possible ! Lien https://forum.malekal.com/viewtopic.php?t=60830
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- Messages : 19570
- Inscription : 02 juin 2012 20:48
- Localisation : Thomas Anderson : Je suis dans et en dehors de la matrice :-)
Re: TUTO - Optimiser son SSD
Pour compléter ce qui précède et en revenant aux sources : (sources Kingston, et Mag hardware magazine)
Rappel :
En SATA les SSD utilisent le protocole AHCI, crée en 2004 à destination des supports magnétiques (disques durs)
Le NVMe a été spécialement développé pour le mode de fonctionnement des SSD
L'avantage principal du NVMe vient de sa latence 2 fois moindre que celle du protocole AHCI
En effet, ce dernier nécessite la lecture de 4 registres par commande ce qui ralentit les opérations
Le NVMe a été également conçu pour tirer parti des contrôleurs multicores des SSD en gérant les files d'attentes plus nombreuses et plus larges
Avec l'AHCI, ce dernier passait plus de temps à attendre les instructions qu'à travailler
Ce dernier point permet de décupler les IOPS... qui ne sert en fait que pour le secteur PRO (voir précédent post en usage gamer par ex) ou à la rigueur pour une copie de fichiers entre SSD NVMe
Donc le principal lors de l'achat d'u SSD NVMe est d'opter pour un contrôleur natif PCI-E
Cela permet de profiter des débits maximums
Là où cela devient compliqué, c'est que malgré l'utilisation du PCI-E et du protocole NVMe, les SSD M.2 peuvent "AUSSI" fonctionner en SATA via une connexion directe entre les lignes PCI-E et un port SATA
Cela permet le recyclage des contrôleurs SATA, largement utilisé sur les SSD 2,5p et de proposer des modèles M.2 abordables et plus compacts que les versions 2,5p
Le truc c'est que le slot M.2 doit pour cela être câble en conséquence et ce mode condamnera donc l utilisation d'un, port SATA sur la carte mère
(En général c'est précisé dans la doc de la carte mère)
Le soucis c'est que TOUTES les carte mères ne proposent pas ce mode de fonctionnement, ce qui fait qu'un SSD M.2 SATA ne sera pas reconnu
On retrouve aussi des SSD qui n'embarquent qu'un protocole PCI--E natif et qui ne sont pas compatibles avec le protocole NVMe
Là aussi le truc c'est que sans NVMe, il faut passer par le protocole AHCI, ce qui bridera donc les performances (ce qui reste relatif)
La bonne nouvelle c'est que l'on voit de moins en moins ce genre de SSD M..2, mais lors de promos diverses ils sont ressortis des cartons
Les SSD M.2 récents sont compatibles NVMe, et utilisent donc pleinement les lignes PCI-E, MAIS, cela signifie AUSSI, qu'ils ne seront pas reconnus sur les slots M.2 directement câblés sur un port SATA
On le voit régulièrement avec les utilisateurs qui essaient d'installer un M.2 sur un PC portable
La décision d’exploiter une technologie de bus offrant une bande passante supérieure a finalement remplacé les protocoles SATA par la technologie PCIe.
Le stockage PCIe a précédé le NVMe de quelques années, mais comme les solutions précédentes étaient bloquées par des protocoles de transfert de données plus anciens, tels que SATA et AHCI, il a fallu attendre ces dernières années pour découvrir son véritable potentiel
La capacité est AUSSI a prendre en compte
Les puces flash ont plusieurs capacités (dies de 16, 32, 64 go, ..)
Le contrôleur peut gérer plusieurs dies par canal : Ex de 8 dies adressables sur 8 canaux, ce qui donne 2048 Go
Du coup les SSD de 256, 512 Go, se retrouvent à n'avoir besoin que de 1 ou 2 canaux, ce qui réduit les performances par 8 ou 4, en comparaison d'un contrôleur pouvant adresser sur 8 canaux
Les constructeurs essaient de pallie à cela mais au résultat les petites capacités seront quand même moins performantes (et encore je ne parle meme pas du remplissage, du cache, ..ou pas)
Donc, ne pas hésiter à prendre des SSD de plus de 512 Go
Carte filles pour m.2
Le M.2 n étant qui'une simple extension du PCI-E, on peut trouver des cartes filles avec un connecteur M.2, pour les cartes mères qui n 'intègrent pas de connecteur M.2
Le nombre de lignes PCI-E dépendra alors du SSD installé
Les plus performants requièrent 4 lignes, mais certains peuvent se contenter de 2 lignes voire... d'une seule ligne
Il peut s'agir en plus de lignes PCI--E 2.0 ou 3.0
Si on prend ex des chipsets Z87 et Z97 (socket 1155), ceux ci n intègrent que 8 lignes PCI--E 2.0, ce qui fait quer les SSD M.2 étaient limités en PCI-E 2.0, à moins d'utiliser les lignes PCI-E 3.0 provenant du CPU
Cela limite alors la connexion des slots PCI-E à 12 lignes, ce qui est suffisant pour une carte graphique mais pas pour deux (question posée dans le forum)
Au final on ne pouvait cumuler un SSD à haute performances et système biGPU (qui au passage tombe en désuétude)
Le Z170 lui par contre intègre 20 lignes PCI-E 3.0 ce qui n'affecte pas les 16 lignes principales du CPU, qui servent pour le GPU
_________
Complément
il faut faire attention aux connecteurs
_______
Edit du 18/03/2024
Tout savoir sur le connecteur M2 (article en libre accès)
Comme il est dit dans l'article au tout début :
https://next.ink/7509/106936-tout-savoi ... sibilites/
Article sur le site
Comment choisir SSD : SSD M.2, NVMe, SATA, AHCI
https://www.malekal.com/comment-choisir ... ahci-sata/
Rappel :
En SATA les SSD utilisent le protocole AHCI, crée en 2004 à destination des supports magnétiques (disques durs)
Le NVMe a été spécialement développé pour le mode de fonctionnement des SSD
L'avantage principal du NVMe vient de sa latence 2 fois moindre que celle du protocole AHCI
En effet, ce dernier nécessite la lecture de 4 registres par commande ce qui ralentit les opérations
Le NVMe a été également conçu pour tirer parti des contrôleurs multicores des SSD en gérant les files d'attentes plus nombreuses et plus larges
Avec l'AHCI, ce dernier passait plus de temps à attendre les instructions qu'à travailler
Ce dernier point permet de décupler les IOPS... qui ne sert en fait que pour le secteur PRO (voir précédent post en usage gamer par ex) ou à la rigueur pour une copie de fichiers entre SSD NVMe
Donc le principal lors de l'achat d'u SSD NVMe est d'opter pour un contrôleur natif PCI-E
Cela permet de profiter des débits maximums
Là où cela devient compliqué, c'est que malgré l'utilisation du PCI-E et du protocole NVMe, les SSD M.2 peuvent "AUSSI" fonctionner en SATA via une connexion directe entre les lignes PCI-E et un port SATA
Cela permet le recyclage des contrôleurs SATA, largement utilisé sur les SSD 2,5p et de proposer des modèles M.2 abordables et plus compacts que les versions 2,5p
Le truc c'est que le slot M.2 doit pour cela être câble en conséquence et ce mode condamnera donc l utilisation d'un, port SATA sur la carte mère
(En général c'est précisé dans la doc de la carte mère)
Le soucis c'est que TOUTES les carte mères ne proposent pas ce mode de fonctionnement, ce qui fait qu'un SSD M.2 SATA ne sera pas reconnu
On retrouve aussi des SSD qui n'embarquent qu'un protocole PCI--E natif et qui ne sont pas compatibles avec le protocole NVMe
Là aussi le truc c'est que sans NVMe, il faut passer par le protocole AHCI, ce qui bridera donc les performances (ce qui reste relatif)
La bonne nouvelle c'est que l'on voit de moins en moins ce genre de SSD M..2, mais lors de promos diverses ils sont ressortis des cartons
Les SSD M.2 récents sont compatibles NVMe, et utilisent donc pleinement les lignes PCI-E, MAIS, cela signifie AUSSI, qu'ils ne seront pas reconnus sur les slots M.2 directement câblés sur un port SATA
On le voit régulièrement avec les utilisateurs qui essaient d'installer un M.2 sur un PC portable
La décision d’exploiter une technologie de bus offrant une bande passante supérieure a finalement remplacé les protocoles SATA par la technologie PCIe.
Le stockage PCIe a précédé le NVMe de quelques années, mais comme les solutions précédentes étaient bloquées par des protocoles de transfert de données plus anciens, tels que SATA et AHCI, il a fallu attendre ces dernières années pour découvrir son véritable potentiel
La capacité est AUSSI a prendre en compte
Les puces flash ont plusieurs capacités (dies de 16, 32, 64 go, ..)
Le contrôleur peut gérer plusieurs dies par canal : Ex de 8 dies adressables sur 8 canaux, ce qui donne 2048 Go
Du coup les SSD de 256, 512 Go, se retrouvent à n'avoir besoin que de 1 ou 2 canaux, ce qui réduit les performances par 8 ou 4, en comparaison d'un contrôleur pouvant adresser sur 8 canaux
Les constructeurs essaient de pallie à cela mais au résultat les petites capacités seront quand même moins performantes (et encore je ne parle meme pas du remplissage, du cache, ..ou pas)
Donc, ne pas hésiter à prendre des SSD de plus de 512 Go
Carte filles pour m.2
Le M.2 n étant qui'une simple extension du PCI-E, on peut trouver des cartes filles avec un connecteur M.2, pour les cartes mères qui n 'intègrent pas de connecteur M.2
Le nombre de lignes PCI-E dépendra alors du SSD installé
Les plus performants requièrent 4 lignes, mais certains peuvent se contenter de 2 lignes voire... d'une seule ligne
Il peut s'agir en plus de lignes PCI--E 2.0 ou 3.0
Si on prend ex des chipsets Z87 et Z97 (socket 1155), ceux ci n intègrent que 8 lignes PCI--E 2.0, ce qui fait quer les SSD M.2 étaient limités en PCI-E 2.0, à moins d'utiliser les lignes PCI-E 3.0 provenant du CPU
Cela limite alors la connexion des slots PCI-E à 12 lignes, ce qui est suffisant pour une carte graphique mais pas pour deux (question posée dans le forum)
Au final on ne pouvait cumuler un SSD à haute performances et système biGPU (qui au passage tombe en désuétude)
Le Z170 lui par contre intègre 20 lignes PCI-E 3.0 ce qui n'affecte pas les 16 lignes principales du CPU, qui servent pour le GPU
_________
Complément
il faut faire attention aux connecteurs
_______
Edit du 18/03/2024
Tout savoir sur le connecteur M2 (article en libre accès)
Comme il est dit dans l'article au tout début :
et là on voit que ce n'est pas évident du tout"Mais je voulais juste acheter un SSD...
https://next.ink/7509/106936-tout-savoi ... sibilites/
Article sur le site
Comment choisir SSD : SSD M.2, NVMe, SATA, AHCI
https://www.malekal.com/comment-choisir ... ahci-sata/
Vous ne pouvez pas consulter les pièces jointes insérées à ce message.
- Only Amiga... Was possible ! Lien https://forum.malekal.com/viewtopic.php?t=60830
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- Messages : 19570
- Inscription : 02 juin 2012 20:48
- Localisation : Thomas Anderson : Je suis dans et en dehors de la matrice :-)
SSD - Secure Erase ou sanitize
UN SECURE ERAZE OU UN SANITIZE ?
La réponse est chez Sandisk (où on retrouve d'autre questions/réponses en lien avec le sujet)
https://kb.sandisk.com/app/answers/deta ... anitize%3F
_____________
"Secure Erase est différent de Sanitize car il supprime uniquement la table de mappage mais n'efface pas tous les blocs sur lesquels il a été écrit.
Sanitize supprimera la table de mappage et effacera tous les blocs qui ont été écrits.
Par conséquent, Secure Erase est plus rapide à terminer que Sanitize.
Après avoir effacé le lecteur à l'aide de Secure Erase ou de Sanitize, toutes les données utilisateur seront définitivement détruites sur le lecteur sélectionné.
Ces données ne peuvent pas être récupérées."
Sanitize est donc un effacement sécurisé (purge/assainissement).
Cette fonction sert surtout à réinitialiser le SSD, ce qui peut parfois être utile en cas de défaillance de ce dernier, ou encore lorsque l'on s'en sépare pour le vendre ou le donner à un tiers (1)
Le Secure Erase consiste simplement en la suppression de la table de correspondance entre les adresses LBA et les pages de données.
La fonction Sanitize, supprime elle aussi cette table mais efface également un à un les blocs contenant effectivement des données.
L'exécution du Sanitize est donc beaucoup plus complète mais aussi beaucoup plus longue que celle du Secure Erase
On peut la comparer avec l'ancienne fonction disparue pour les disques durs qui était le formatage de bas niveau (La fonction formatage "lent" peut actuellement y être assimilée)
(1) Exemple de ce que j'ai pu récupérer avec Testdisk, sur un SSD Samsung EVO 4To, vendu "d'occasion" chez AMAZON
Le SSD avait été allumé/éteint 70 fois d'après CrystalDisk, n'avait aucun soucis, n'était pas préparé (pas de partition etc)
Si j'avais voulu j'aurai pu restaurer tout ce qu'il contenait et donc retrouver le propriétaire aux vues de ce que j'aurai trouvé dans les sauvegardes
A noter que celui qui a effacé les tables de partitions etc, a du quitter son programme et débranché le SSD juste après,ce qui fait que pour la maintenance il n'y a pas eu au moins une fonction TRIM
Ceci aurait pu éviter la récupération de données sur le SSD
Voir ce sujet sur la récupération de données
viewtopic.php?p=534579#p534579
Chez certains constructeurs comme Sandisk, l'outil SANITIZE existe mais pas pour tous les modèles (mais je ne sais ce qu'il en est actuellement)
https://www.touslesdrivers.com/index.ph ... e=24&v_p=9 (lien d'une ancienne version mais c'est pour l idée)
Chez SAMSUNG, l'outil ne dispose QUE de la fonction SECURE ERASE via Samsung magician (Ex de msg d'erreur avec HD PARM en clé de boot) Mais en plus comme d'autres marques cela ne fonctionne pas pour TOUS les modèles
----------------
Au passage, on retrouve l'outil "Sanitize" dans les programmes de gestion de certains vendeurs de SSD, mais même au sein d'une meme marque la fonction peut ne pas fonctionner suivant les modèles, et ce, même (bis repetita) avec une clé de boot comme chez Sandisk
Chez CRUCIAL ils disent bien "intégralité des données"
À quoi sert l’option Sanitize Drive ?
Cette opération supprime l’intégralité des données d’un disque. Veuillez noter qu’elle fonctionnera uniquement si vous n’utilisez pas de cryptage matériel. Si vous disposez d’un tel système de cryptage (TCG/mot de passe), vous devez alors utiliser la fonctionnalité PSID Revert pour supprimer les données.
Quant à l'usage de Diskpart, outil de Windows avec la commande "DiskPart Clean". Chez Crucial il est dit :
"Veuillez noter que cette manipulation ne supprime pas les données des cellules du SSD. Elle efface simplement les partitions qui ont été créées, vous ne pourrez donc plus accéder aux données que le disque contient, et il apparaîtra comme non initialisé. Cette solution est idéale si vous avez créé une partition incorrecte, ou si vous avez sélectionné GPT au lieu de MBR,"
________________
Si on veut faire "propre", avec aucune données à récupérer (pour une vente par ex)
Mon conseil utiliser dans un premier temps PRIVAZER en nettoyage "complet avec les réglages améliorés (X passes) et en indiquant sur quel disque on veut procéder (Bien vérifier les paramètres en fait - Voir tuto ci dessous -
PRIVAZER
https://www.malekal.com/privazer-nettoyer-windows/
Ensuite, pendant le nettoyage avec le TRIM et paramètres en X passes il ne restera RIEN à récupérer (surtout avec l'usage du TRIM)
Il faut se rappeler que le TRIM peut suffire (1) ...et il faut éviter en temps normal de faire X passes sur un SSD (même si la durabilité , bla bla bla etc.. il y a une notion d'usure à prendre en compte)
Accessoirement peut ensuite compléter avec un SECURE ERASE, si le doute subsiste, et cela AMPLEMENT suffisant
(1) Pour tester utiliser un programme de recouvrement de données.. il ne trouvera RIEN
Vous ne pouvez pas consulter les pièces jointes insérées à ce message.
- Only Amiga... Was possible ! Lien https://forum.malekal.com/viewtopic.php?t=60830
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- Messages : 19570
- Inscription : 02 juin 2012 20:48
- Localisation : Thomas Anderson : Je suis dans et en dehors de la matrice :-)
SSD Samsung QVO
Sur les SSD Samsung QVO
Sur ces SSD QVO on a un cache SLC de 42 Go (Du nom de "Intelligent TurboWrite" ) pour les versions 1 TO (avec une durée de vie de 360 TBW, soit 2 fois moins qu'en TLC en moyenne)
Ce cache a pour vocation d'accélérer les travaux d'écriture en n'utilisant que le premier bit de chaque cellule.
De type hybride, il combine 6 Go réservés à cet usage à 36 Go d'espace dynamique.
Donc il faut prendre en compte que si s'il ne reste que 12 Go d'espace libre, seuls 9 Go seront accélérés : les 6 Go dédiés et 12/4 soit 3 Go pris sur l'espace libre.
A partir du 2 TO (et c'est identique sur les versions 4 et 8 To) le cache SLC est plus important : 78 Go et cela change la donne car de 70-80 Mo/s en débit lorsque le cache est saturé sur du 1 To, on passe à 150 Mo/s (curieusement du reste)
On a aussi une mémoire cache : 1 / 2 / 4 / 8 Go LP DDR4 SDRAM pour les versions 1 / 2 / 4 / 8 To
Si on fait du montage video, ou même du RIP de ses DVD/Blue ray et SURTOUT du P2P (Torrent), il faut oublier le QVO
On peut vite saturer le cache et en plus on réduit FORTEMENT la durée de vie meme si la marge est plus grande à partir de 2 To
A conseiller donc pour du stockage : Photos, documents, vidéos, ou des jeux (si on dépasse les 1 To du fait du cache) mais pas en tant que disque de boot, et surtout pas pour faire du téléchargement tous les jours en P2P
360 TBW pour du 1To
720 TBW pour du 2 To
1 440 TBW pour du 4 To
2 880 TBW pour du 8 To
Au delà de cela ils ne sont pas bons en accès aléatoires, et si on lit divers forums, il y en a beaucoup qui lâchent lorsqu'ils utilisés en disque de boot (surtout sous Win10 et ce sans le fameux bug de défragmentation que Microsoft a mis 5 mois à résoudre
https://www.comptoir-hardware.com/actus ... tml#ragots )
Pour les versions NVMe il vaut mieux utiliser le pilote SAMSUNG https://www.samsung.com/semiconductor/m ... oad/tools/
que celui générique fournir par Microcroft
En plus il faut s'assurer que dans le gestionnaire de périphérique, que celui ci soit bien pris en compte (il doit apparaitre en tant que "NVMe Samsung Controller" sinon il faut forcer l'installation en mettant par ex le pilote dans un dossier et indiquer le chemin à windows pour l'installation (il a été vu des cas où au reboot l'installation n'était pas de fait)
ATTENTION !
A savoir les 980 et 980 Pro n'ont PAS de pilote spécifique
C'est celui de Microsoft qui est utilisé
Sur le site SAMSUNG on peut lire
Pilote Samsung NVMe™ (2)
Ce pilote prend en charge Samsung NVMe™ SSD 970 PRO, 970 EVO, 970 EVO Plus, 960 PRO, 960 EVO et 950 PRO.
Si on regarde bien on peut noter que la dernière version est la 3.3 en date de .. Janvier 2020 Windows 7, Windows 8.1 et Windows 10.
Samsung met à disposition un .pdf pour l'installation qui indique les pré-requis
https://semiconductor.samsung.com/resou ... nGuide.pdf
Donc pour les 980 et 980 pro ça sera celui de Microsoft qui sera utilisé par défaut (et possiblement le 990 à venir)
Sur ces SSD QVO on a un cache SLC de 42 Go (Du nom de "Intelligent TurboWrite" ) pour les versions 1 TO (avec une durée de vie de 360 TBW, soit 2 fois moins qu'en TLC en moyenne)
Ce cache a pour vocation d'accélérer les travaux d'écriture en n'utilisant que le premier bit de chaque cellule.
De type hybride, il combine 6 Go réservés à cet usage à 36 Go d'espace dynamique.
Donc il faut prendre en compte que si s'il ne reste que 12 Go d'espace libre, seuls 9 Go seront accélérés : les 6 Go dédiés et 12/4 soit 3 Go pris sur l'espace libre.
A partir du 2 TO (et c'est identique sur les versions 4 et 8 To) le cache SLC est plus important : 78 Go et cela change la donne car de 70-80 Mo/s en débit lorsque le cache est saturé sur du 1 To, on passe à 150 Mo/s (curieusement du reste)
On a aussi une mémoire cache : 1 / 2 / 4 / 8 Go LP DDR4 SDRAM pour les versions 1 / 2 / 4 / 8 To
Si on fait du montage video, ou même du RIP de ses DVD/Blue ray et SURTOUT du P2P (Torrent), il faut oublier le QVO
On peut vite saturer le cache et en plus on réduit FORTEMENT la durée de vie meme si la marge est plus grande à partir de 2 To
A conseiller donc pour du stockage : Photos, documents, vidéos, ou des jeux (si on dépasse les 1 To du fait du cache) mais pas en tant que disque de boot, et surtout pas pour faire du téléchargement tous les jours en P2P
360 TBW pour du 1To
720 TBW pour du 2 To
1 440 TBW pour du 4 To
2 880 TBW pour du 8 To
Au delà de cela ils ne sont pas bons en accès aléatoires, et si on lit divers forums, il y en a beaucoup qui lâchent lorsqu'ils utilisés en disque de boot (surtout sous Win10 et ce sans le fameux bug de défragmentation que Microsoft a mis 5 mois à résoudre
https://www.comptoir-hardware.com/actus ... tml#ragots )
Pour les versions NVMe il vaut mieux utiliser le pilote SAMSUNG https://www.samsung.com/semiconductor/m ... oad/tools/
que celui générique fournir par Microcroft
En plus il faut s'assurer que dans le gestionnaire de périphérique, que celui ci soit bien pris en compte (il doit apparaitre en tant que "NVMe Samsung Controller" sinon il faut forcer l'installation en mettant par ex le pilote dans un dossier et indiquer le chemin à windows pour l'installation (il a été vu des cas où au reboot l'installation n'était pas de fait)
ATTENTION !
A savoir les 980 et 980 Pro n'ont PAS de pilote spécifique
C'est celui de Microsoft qui est utilisé
Sur le site SAMSUNG on peut lire
Pilote Samsung NVMe™ (2)
Ce pilote prend en charge Samsung NVMe™ SSD 970 PRO, 970 EVO, 970 EVO Plus, 960 PRO, 960 EVO et 950 PRO.
Si on regarde bien on peut noter que la dernière version est la 3.3 en date de .. Janvier 2020 Windows 7, Windows 8.1 et Windows 10.
Samsung met à disposition un .pdf pour l'installation qui indique les pré-requis
https://semiconductor.samsung.com/resou ... nGuide.pdf
Donc pour les 980 et 980 pro ça sera celui de Microsoft qui sera utilisé par défaut (et possiblement le 990 à venir)
- Only Amiga... Was possible ! Lien https://forum.malekal.com/viewtopic.php?t=60830
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- Messages : 19570
- Inscription : 02 juin 2012 20:48
- Localisation : Thomas Anderson : Je suis dans et en dehors de la matrice :-)
SSD Samsung en boitier externe en USB
SAMSUNG SSD QVO en version boitier externe et USB
Déjà il faut des ports USB USAP (La norme de données USB 2.1 et USB 3.1 ne permettent pas le TRIM) mais certains pilotes passent outre l'USAP et utilisent l'ATA Pass Through (En fait on fait transiter des commandes ATA par le protocole haut niveau SCSI) et la commande TRIM peut être gérée
A savoir ce n'est que depuis 2021 sur macOS Monterey que la gestion du TRIM est possible via l'USB (ce n'est pas lié qu'à l'EX-FAT qui ne supporte pas le TRIM, qui est aussi de fait sous Windows)
Certains boitiers externes USB avec un SSD gèrent le TRIM du fait de la puce, du firmware, de l USB 3.1 Gen. 2 du type de câble et Windows10 (il faut plusieurs conditions réunies)
D'ailleurs on peut avoir des boitiers qui gèrent l'USAP mais pas le TRIM, et c'est souvent lié à la puce qui fait le lien entre l’USB et le SSD mais la puce ne fait pas tout car il y a un lien avec le Firmware (vu sur des puces ASMEDIA identiques par ex)
Donc ils doivent supporter l’UASP ET le TRIM (par contre il semble qu'il n'y ait pas de soucis avec les adaptateurs USB vers NVMe)
Je vais faire court :
Il faut savoir que pour éviter que le cache s'effondre, il faut que la commande TRIM passe en USB
Avec certains contrôleurs de boitiers ce n'est pas le cas (comme le plus courant : JMicron JMS583 version NVME du JMS587, SAUF avec le firmware 234.01.00.01, vu sur un A-Data, mais qui peut passer curieusement avec un JMicron 562 qui date de 2014)
Pour rappel , la commande TRIM, permet, en simplifiant la définition, d’indiquer au contrôleur du SSD qu’une donnée à été effacée, pour améliorer la gestion de l’usure. Mais elle intervient aussi dans la gestion du cache
Pour gérer le cache dynamique, le SSD doit connaître l’espace libre. Et sans TRIM… il ne peut pas.
En pratique, on ne voit pas de différence au début : un SSD formaté est considéré comme vide au départ.
Mais avec le temps, chaque écriture va s’accumuler et si on écrit toutes les cellules… le contrôleur va considérer qu’il est rempli… même s’il ne l’est pas.
Le SSD perdra donc ses capacités au fil du temps (en général suivant usage au bout de 2 ou 3 mois, mais nettement moins pour les adeptes du peer to peer)
Il a même été vu des SSD où la lecture, copie de fichiers (du SSD vers un autre support) était impossible
Petit exemple :
Télécharger une vidéo de 50 Go (normalement ca ne devrait pas être.. )
La regarder
L'effacer
Télécharger ensuite une seconde vidéo de 50 Go et regarder puis effacer
En interne, avec le TRIM, l’espace libre n’a pas bougé.
Sans le TRIM, en USB, l’espace libre a diminué de 100 Go. Et une fois que le SSD est considéré comme rempli par le SSD… c’est fini.
Après quelques jours ou quelques semaines, ou mois on perd totalement le cache dynamique
Ensuite se rappeler que lorsque le (juste pour l'ex) un 860 QVO n'a plus de cache, ses performances chutent radicalement.
Le SSD va vider le cache en écrivant les données dans la mémoire 4-bits NAND principale, mais ce processus prend un certain temps parfois plusieurs dizaines de minutes entre chaque processus d'écriture (bis repetita voir sujet au dessus)
C'est la même chose lorsqu'on est sur un SSD récalcitrant non reconnu, etc... Il faut le laisser au moins une nuit avec juste l'alimentation et pas le cable sata connecté..
Il y a des fonctions qui vont s'activer et "nettoyer" le disque, le remettre d'aplomb (ca fonctionne très bien avec Crucial mais pas testé sur SAMSUNG)
S'assurer également avec SSD Samsung externes que dans les propriétés du SSD (stratégies) , que la case de l'activation du cache en écriture soit bien cochée
Normalement cela devrait être le cas mais des utilisateurs et SAMSUNG se sont aperçus que ça ne l'était pas toujours (au point que SAMSUNG a ajouté un encart dans sa FAQ)
Déjà il faut des ports USB USAP (La norme de données USB 2.1 et USB 3.1 ne permettent pas le TRIM) mais certains pilotes passent outre l'USAP et utilisent l'ATA Pass Through (En fait on fait transiter des commandes ATA par le protocole haut niveau SCSI) et la commande TRIM peut être gérée
A savoir ce n'est que depuis 2021 sur macOS Monterey que la gestion du TRIM est possible via l'USB (ce n'est pas lié qu'à l'EX-FAT qui ne supporte pas le TRIM, qui est aussi de fait sous Windows)
Certains boitiers externes USB avec un SSD gèrent le TRIM du fait de la puce, du firmware, de l USB 3.1 Gen. 2 du type de câble et Windows10 (il faut plusieurs conditions réunies)
D'ailleurs on peut avoir des boitiers qui gèrent l'USAP mais pas le TRIM, et c'est souvent lié à la puce qui fait le lien entre l’USB et le SSD mais la puce ne fait pas tout car il y a un lien avec le Firmware (vu sur des puces ASMEDIA identiques par ex)
Donc ils doivent supporter l’UASP ET le TRIM (par contre il semble qu'il n'y ait pas de soucis avec les adaptateurs USB vers NVMe)
Je vais faire court :
Il faut savoir que pour éviter que le cache s'effondre, il faut que la commande TRIM passe en USB
Avec certains contrôleurs de boitiers ce n'est pas le cas (comme le plus courant : JMicron JMS583 version NVME du JMS587, SAUF avec le firmware 234.01.00.01, vu sur un A-Data, mais qui peut passer curieusement avec un JMicron 562 qui date de 2014)
Pour rappel , la commande TRIM, permet, en simplifiant la définition, d’indiquer au contrôleur du SSD qu’une donnée à été effacée, pour améliorer la gestion de l’usure. Mais elle intervient aussi dans la gestion du cache
Pour gérer le cache dynamique, le SSD doit connaître l’espace libre. Et sans TRIM… il ne peut pas.
En pratique, on ne voit pas de différence au début : un SSD formaté est considéré comme vide au départ.
Mais avec le temps, chaque écriture va s’accumuler et si on écrit toutes les cellules… le contrôleur va considérer qu’il est rempli… même s’il ne l’est pas.
Le SSD perdra donc ses capacités au fil du temps (en général suivant usage au bout de 2 ou 3 mois, mais nettement moins pour les adeptes du peer to peer)
Il a même été vu des SSD où la lecture, copie de fichiers (du SSD vers un autre support) était impossible
Petit exemple :
Télécharger une vidéo de 50 Go (normalement ca ne devrait pas être.. )
La regarder
L'effacer
Télécharger ensuite une seconde vidéo de 50 Go et regarder puis effacer
En interne, avec le TRIM, l’espace libre n’a pas bougé.
Sans le TRIM, en USB, l’espace libre a diminué de 100 Go. Et une fois que le SSD est considéré comme rempli par le SSD… c’est fini.
Après quelques jours ou quelques semaines, ou mois on perd totalement le cache dynamique
Ensuite se rappeler que lorsque le (juste pour l'ex) un 860 QVO n'a plus de cache, ses performances chutent radicalement.
Le SSD va vider le cache en écrivant les données dans la mémoire 4-bits NAND principale, mais ce processus prend un certain temps parfois plusieurs dizaines de minutes entre chaque processus d'écriture (bis repetita voir sujet au dessus)
C'est la même chose lorsqu'on est sur un SSD récalcitrant non reconnu, etc... Il faut le laisser au moins une nuit avec juste l'alimentation et pas le cable sata connecté..
Il y a des fonctions qui vont s'activer et "nettoyer" le disque, le remettre d'aplomb (ca fonctionne très bien avec Crucial mais pas testé sur SAMSUNG)
S'assurer également avec SSD Samsung externes que dans les propriétés du SSD (stratégies) , que la case de l'activation du cache en écriture soit bien cochée
Normalement cela devrait être le cas mais des utilisateurs et SAMSUNG se sont aperçus que ça ne l'était pas toujours (au point que SAMSUNG a ajouté un encart dans sa FAQ)
- Only Amiga... Was possible ! Lien https://forum.malekal.com/viewtopic.php?t=60830
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- Messages : 19570
- Inscription : 02 juin 2012 20:48
- Localisation : Thomas Anderson : Je suis dans et en dehors de la matrice :-)
SSD Impossible de cloner
CLONAGE IMPOSSIBLE :
Certains SSD SATA ou NVMe de marques pas très répandues mais connues (certains modèles SABRENT par ex) utilisent des secteurs de 4k octets, et n'ont pas d'émulation de 512 octets (512e).
Ce petit détail à son importance lors d'un clonage et... pour crypter le SSD
Pour une installations propre, initiale, cela ne devrait pas poser de problème.
Le clonage EST le problème, car vous aurez besoin d'un logiciel de clonage capable de convertir des secteurs de 512 octets en secteurs de 4k, et même dans ce cas, le logiciel de clonage peut ne pas être en mesure de convertir la partition de démarrage
Au résultat : Il est impossible de booter sur le SSD
La plupart des disques durs modernes ont des secteurs physiques de 4k mais émulent des secteurs de 512 octets à des fins de compatibilité (certains programmes ne sont toujours compatibles qu'avec des secteurs de 512 octets).
L'absence de 512e peut également affecter le cryptage et possiblement la sauvegarde de votre disque dur.
Le logiciel de cryptage populaire VeraCrypt ne prend en charge que les secteurs de 512 octets (1)
Même après une installation propre de Windows, on ne peut pas faire fonctionner Bitlocker correctement (2)
----------
Constatés courant 2020 à confirmer suite à de possibles mises à jour
Edit : J'ai retrouvé le modèle indiqué SABRENT
https://www.amazon.fr/dp/B07LGF54XR/ref=emc_b_5_t
Le truc c'est qu'entre 2019 et 2021 il a subi des évolutions et la fiche AMAZON n'est pas à jour
Par ex SABRENT pour ce modèle est passé en 2020 à de la mémoire flash MICRO 27A 96 couches 3D TLC (qui coûte moins cher)
Cela se voit sur une photo postée par un utilisateur et il s'agit bien d'une Micron 96-layer 3D TLC B27A IA7BG63AVA avec un contrôleur Phison E12S
A noter que courant 2020 il y a eu une mise à jour et maintenant l'émulation de 512 octets (512e) est présente
Mais c'est valable pour ce modèle uniquement
Là par contre c'est indiqué sur la fiche : "Un nouvel utilitaire Sabrent permet aux utilisateurs de reformater le disque Rocket et de choisir la taille qu'ils préfèrent, soit 512 bytes, soit 4K bytes."
Un peu de lecture :
https://www.anandtech.com/show/12943/mi ... monstrated
Ce soucis de l'évolution non documentée, et sans communication du fabricant est problématique
https://www.inpact-hardware.com/article ... rformances
ou pire
https://www.inpact-hardware.com/article ... tilise-qlc
AUTRE CAS DE FIGURE (Le clonage SATA vers NVme est réussi mais le SSD ne boote pas)
Mon SSD NVMe PCIe ne démarre pas après le clonage à partir d’un SSD/disque dur SATA
C'est... normal :-)
Le SSD NVme requiert un pilote spécifique
Il suffit de démarrer en mode sans échec, ce qui chargera les pilotes nécessaires pour démarrer Windows normalement.
Une fois le système complètement démarré en mode sans échec, cliquez simplement sur le bouton Démarrer et demandez à votre PC de redémarrer.
Source et procédure en images https://www.crucial.fr/support/articles ... r-cloning
Par contre je ne conseille pas à la base l'outil de crucial "gratuit" car TRES limité, et de plus qui est prévue pour une migration et non un clonage
Certains SSD SATA ou NVMe de marques pas très répandues mais connues (certains modèles SABRENT par ex) utilisent des secteurs de 4k octets, et n'ont pas d'émulation de 512 octets (512e).
Ce petit détail à son importance lors d'un clonage et... pour crypter le SSD
Pour une installations propre, initiale, cela ne devrait pas poser de problème.
Le clonage EST le problème, car vous aurez besoin d'un logiciel de clonage capable de convertir des secteurs de 512 octets en secteurs de 4k, et même dans ce cas, le logiciel de clonage peut ne pas être en mesure de convertir la partition de démarrage
Au résultat : Il est impossible de booter sur le SSD
La plupart des disques durs modernes ont des secteurs physiques de 4k mais émulent des secteurs de 512 octets à des fins de compatibilité (certains programmes ne sont toujours compatibles qu'avec des secteurs de 512 octets).
L'absence de 512e peut également affecter le cryptage et possiblement la sauvegarde de votre disque dur.
Le logiciel de cryptage populaire VeraCrypt ne prend en charge que les secteurs de 512 octets (1)
Même après une installation propre de Windows, on ne peut pas faire fonctionner Bitlocker correctement (2)
----------
Constatés courant 2020 à confirmer suite à de possibles mises à jour
Edit : J'ai retrouvé le modèle indiqué SABRENT
https://www.amazon.fr/dp/B07LGF54XR/ref=emc_b_5_t
Le truc c'est qu'entre 2019 et 2021 il a subi des évolutions et la fiche AMAZON n'est pas à jour
Par ex SABRENT pour ce modèle est passé en 2020 à de la mémoire flash MICRO 27A 96 couches 3D TLC (qui coûte moins cher)
Cela se voit sur une photo postée par un utilisateur et il s'agit bien d'une Micron 96-layer 3D TLC B27A IA7BG63AVA avec un contrôleur Phison E12S
A noter que courant 2020 il y a eu une mise à jour et maintenant l'émulation de 512 octets (512e) est présente
Mais c'est valable pour ce modèle uniquement
Là par contre c'est indiqué sur la fiche : "Un nouvel utilitaire Sabrent permet aux utilisateurs de reformater le disque Rocket et de choisir la taille qu'ils préfèrent, soit 512 bytes, soit 4K bytes."
Un peu de lecture :
https://www.anandtech.com/show/12943/mi ... monstrated
Ce soucis de l'évolution non documentée, et sans communication du fabricant est problématique
https://www.inpact-hardware.com/article ... rformances
ou pire
https://www.inpact-hardware.com/article ... tilise-qlc
AUTRE CAS DE FIGURE (Le clonage SATA vers NVme est réussi mais le SSD ne boote pas)
Mon SSD NVMe PCIe ne démarre pas après le clonage à partir d’un SSD/disque dur SATA
C'est... normal :-)
Le SSD NVme requiert un pilote spécifique
Il suffit de démarrer en mode sans échec, ce qui chargera les pilotes nécessaires pour démarrer Windows normalement.
Une fois le système complètement démarré en mode sans échec, cliquez simplement sur le bouton Démarrer et demandez à votre PC de redémarrer.
Source et procédure en images https://www.crucial.fr/support/articles ... r-cloning
Par contre je ne conseille pas à la base l'outil de crucial "gratuit" car TRES limité, et de plus qui est prévue pour une migration et non un clonage
- Only Amiga... Was possible ! Lien https://forum.malekal.com/viewtopic.php?t=60830
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- Messages : 19570
- Inscription : 02 juin 2012 20:48
- Localisation : Thomas Anderson : Je suis dans et en dehors de la matrice :-)
SSD et le SMART en détail
Les disques durs SSD de Intel fournissent un statut SMART.
Qu'est ce que le SMART ?
https://www.hdsentinel.com/smart/index.php
Edit du 01/01/2023 : Un article sur le site concernant le SMART https://www.malekal.com/smartl-prevenir ... -dur-ssd/
Edit du 02/12/2023 : J'ai découvert cet article Wikipedia et (lorsque j'aurai le temps) je regarderai si il y a des choses à compléter
https://fr.wikipedia.org/wiki/Self-Moni ... kin=vector
Il faut donc se rappeler que le SMART est juste...un indicateur, il peut permettre de se "méfier", mais ce n'est pas une science exacte au jour d'aujourd'hui.
Un disque (SSD ou HD) avec un état SMART "fantastiquement excellent" peut décéder 5 minutes plus tard (PCB qui lâche), et un disque avec des milliers de secteurs réalloués mais stables peut tenir à l'inverse 3 ans de plus (mais peut lâcher également dans la minute)
Les différents modèles utilisent tous pratiquement les mêmes codes.
La documentation technique en ligne de Intel est bien faite et permet de décoder manuellement les paramètres que l'utilitaire SMART ne connait peut-être pas, tandis que les SSD de Samsung sont fournis avec une documentation (PDF) très complet
Voici donc ce que signifie les termes que l'on peut voir apparaitre dans les divers programmes d'analyse des données SMART
En premier apparaissent les explications Intel, en second, j'y ai ajouté celles données par Samsung qui souvent apportent plus de détails
Pour Samsung, j'ai mis la traduction fr telle qu'elle apparait dans ma version de Crystaldisk Info
Certains paramètres sont repris en double: selon le type de disque l'un ou l'autre paramètre sera utilisé (il n'y a pas de standardisation, même pas au niveau d'Intel).
Ensuite il faut bien avoir conscience que chaque constructeur à sa propre politique qui découle de ces données SMART, et c'est pour cela que les programmes ne disent pas toujours la même chose
Par exemple chez CRUCIAL https://www.crucial.fr/support/articles ... smart-data
Ils conseillent d'utiliser leur propre logiciel pour l'analyse des données SMART
Quant à SAMSUNG, on peut se poser des questions sur la manipulation des données SMART
https://www.anandtech.com/show/8239/upd ... d-die-size
DESCRIPTION
01 - Raw Read Error Rate (taux d’erreur brut de lecture)
Si il y a un indicateur sur lequel il ne faut pas trop s'attarder, c'est bien celui ci surtout en lecture avec des programmes autres que ceux du constructeurs, comme Crystal Disk etc (mais c'est valable également pour d'autres indicateurs)
Cela indique le taux d’erreur matérielle lors de la lecture de la surface du disque.
En général, il y’aura toujours un nombre d’erreurs lors de la lecture de secteurs mais cela n’indique pas forcement un problème avec le disque. Il est aussi normal que ce taux s’incrémente de 1 pour chaque erreur.
Les fabricants de SSDs déterminent un niveau optimum d’erreurs et en créent une échelle.
Ce niveau optimum diffère aussi d’un fabriquant a l’autre.
Par exemple, si un fabriquant considère que 3 erreurs pour chaque 100 séances de lectures est quasi parfait, il pourra peut être donner une valeur de 100 pour un taux d’erreur de 3/100.
De ce fait, en regardant ce taux de 100, le client pourrait être alarmé alors qu’en réalité ceci indique un état parfait du disque.
Par ex chez CRUCIAL (même chose chez SAMSUNG) les valeurs dépendent de plusieurs autres facteurs. Le logiciel Storage Exécutive est conçu pour interpréter les données SMART, et en fonction des valeurs et seuils qu 'ils ont établit pour chaque paramètre, cela indiquera si le SSD est en bonne santé ou pas.
5 - 05h - Re-allocated sector count (aussi Samsung) (Nombre de secteurs réalloués)
Indique le nombre de cellules de mémoire mises hors fonction. Ce paramètre indique l'état général du disque mais n'indique pas une défaillance car des pages sont mises hors-fonction dès qu'elles sont épuisées.
Quand le disque dur obtient une erreur de lecture/écriture/vérification sur un secteur, il note ce secteur comme réalloué et transfère les données vers une zone réservée spéciale (la zone de réserve). Ce processus est aussi connu sous le nom de remapping et les secteurs réalloués sont appelés remaps.
C’est pourquoi, sur les disques modernes, on ne peut pas voir de « mauvais » blocs lorsqu’on teste la surface du disque (tous les mauvais secteurs sont cachés dans les secteurs réalloués).
Cependant, plus il y a de secteurs réalloués, plus la vitesse d’écriture/lecture diminue.
Normalement le disque dispose de cellules de réserves (un disque de 60GB a en fait 64GB de mémoire, les 4 GB sont gardés en réserve).
Chez Samsung : "Nombre de secteurs ayant été réalloués. Quand le disque dur obtient une erreur de lecture/écriture/vérification sur un secteur, il note ce secteur comme réalloué et transfère les données vers un nouveau secteur situé dans une zone réservée spéciale."
9 - 09h - Power on hours count (aussi Samsung) (Durée en Heures de fonctionnement)
Nombre d'heures de fonctionnement (attention, la valeur ne peut pas être utilisée telle quelle, c'est une valeur hexadécimale).
Chez SAMSUNG : "Nombre d’heures pendant lequel le lecteur a été en fonctionnement. Cette valeur est un simple indicateur du comportement de l’utilisateur, et n’est pas directement liée à l’état de fonctionnement du lecteur. La valeur brute de cet attribut indique le nombre total d’heures (ou, selon le constructeur, de minutes ou de secondes) de fonctionnement du disque. Lorsque l’ordinateur est en mode de veille prolongée, la valeur Power-On Hours n'augmente pas."
12 - 0Ch - Power cycle count (aussi Samsung) (Nombre total de cycles marche-arrêt)
Nombre de mises sous tension
Chez SAMSUNG : "Nombre de cycles de mise sous/hors tension complets du disque." (appelé aussi Power ON count)
170 - AAh - Available reserverd space
Capacité en réserve prévue pour remplacer les cellules qui sont usées.
171 - ABh - Program fail count
Nombre d'erreurs de programmation (enregistrement de données)
172 - ACh - Erase fail count
Nombre d'erreurs d'effacement (les cellules doivent être effacées avant de recevoir de nouvelles données).
174 - AEh- Unexpected power loss (Nombre de pertes de puissance inattendues)
Également connu sous le nom de «compte de retrait de mise hors tension» selon la terminologie du disque dur classique.
La valeur brute indique le nombre d'arrêts non corrects, cumulatifs sur la durée de vie d'un SSD, où un «arrêt non propre» est la suppression de l'alimentation sans la dernière commande (indépendamment de l'activité PLI utilisant la puissance du condensateur). La valeur normalisée est toujours 100
Pour simplifier, il s'agit du nombre de fois que le disque dur est tombé sans électricité sans indication préalable (commande STANDBY IMMEDIATE). Il est important qu'une procédure de mise à l'arrêt soit suivie, pour s'assurer que toutes les données en mémoire-tampon soient stockées en mémoire flash.
Certains disques utilisent des condensateurs pour fournir du courant pendant la phase de sauvegarde d'urgence, d'autres disques essaient de reconstruire les données manquantes à partir d'une sorte de journal de bord.
175 - AFh - Program Fail Count (chip) Nombre d'erreurs de programmation (puce)
Ce paramètre est considéré comme informatif par la plupart des fournisseurs de matériel. Bien que la dégradation de ce paramètre puisse être un indicateur du vieillissement du disque et/ou de problèmes électromécaniques potentiels, elle n'indique pas directement une panne imminente du disque. Une sauvegarde régulière est recommandée. Portez une attention particulière aux autres paramètres et à la santé globale du lecteur.
177 - B1h - Wear leveling count (Nombre de niveau d'usure)
Nombre d'opération d'effacement d'un bloc. La mémoire SSD s'use à cause des opérations d'effacement. Chaque bloc de mémoire d'un disque TLC (triple level cell) peut être reprogrammé environ 2000 fois.
Le contrôleur va effectuer les opérations d'écriture de telle façon que tout le disque s'use uniformément. Une valeur de 24 indique qu'en moyenne chaque bloc a été reprogrammé 24 fois, ce qui donne une durée de vie restante d'environ 34 ans (si les blocs ont été usée en moyenne de 24/2000 = 1.2% en 5 mois).
Chez SAMSUNG : "Représente le nombre d’opérations d’effacement effectuées sur le support (le nombre de fois qu’un bloc a été effacé)."
179 - B3h - Used reserved block count (Nombre de blocs réservés utilisés - Total )
Nombre de blocs gardés en réserve qui sont utilisés. Un bloc de réserve est utilisé dès qu'un bloc ne peut plus être écrit ou effacé correctement.
Chez SAMSUNG : "Représente le nombre total de blocs réservés ayant été utilisés suite à un échec d’une demande programme ou d’une demande d’effacement."
180 - B4 - Number of unused spare blocks (spare blocks available for PCIe SSDs) (Nombre de blocs de réserve inutilisés (blocs de réserve disponibles pour les SSD PCIe)
Cet attribut que l'on voit surtout chez CRUCIAL, correspond au nombre de blocs supplémentaires disponibles si des blocs défaillants doivent être condamnés. Ce nombre varie en fonction de l’architecture NAND de base, de l’architecture du firmware, et de la capacité effective du disque, mais il s’élève généralement à plusieurs milliers.
Il diminue au fur et à mesure que le nombre de blocs condamnés augmente.
Lorsque l’attribut 180 atteint 0, le firmware passe automatiquement le SSD en mode « lecture seule ». Le SSD ne pourra plus être utilisé comme disque normal, mais l’utilisateur devrait être en mesure de récupérer les données qu’il contient et les transférer vers un nouveau support.
181 - B5h - Progam fail count (Nombre d'échecs du programme)
Nombre d'opérations d'écriture qui ont raté. Si une page rate plusieurs fois de suite, tout le bloc est mis hors d'usage et un bloc de réserve est utilisé à sa place.
182 - B6h - Erase fail count ,(Nombre d'échecs d'effacement)
Nombre d'opérations d'effacement qui ont raté. Il faut effacer tout le bloc avant de pouvoir y écrire. Si l'effacement rate plusieurs fois de suite, le bloc est mis hors d'usage.
Chez SAMSUNG : "Nombre de demandes programme (d’écriture) ayant échoué."
183 - B7h - SATA downshift count
Nombre d'erreurs de dégradation de l'interface SATA. Attribut Western Digital, Samsung ou Seagate: soit le nombre de rétrogradations de la vitesse de liaison (par exemple de 6 Gbps à 3Gbps) ou le nombre total de blocs de données avec des erreurs détectées, non corrigibles, rencontrées pendant le fonctionnement normal.
Bien que la dégradation de ce paramètre puisse être un indicateur du vieillissement du variateur et / ou des problèmes électromécaniques potentiels, elle n'indique pas directement une défaillance imminente
183 - B7h - Runtime bad count (Blocs avec une mauvaise durée - Total )
Nombre de fois que l'interface SATA a du fonctionner à basse vitesse à cause d'erreurs
Somme de toutes les opérations de programmation ou d'effacement qui ont raté.
Chez SAMSUNG : " Correspond à la somme de Program Fail Count et de Erase Fail Count. Cette valeur récapitulative représente le nombre total cumulé d’échecs de demandes programme et de demandes d’effacement."
Program Fail Count : Nombre de demandes programme (d’écriture) ayant échoué.
Erase Fail Count : Nombre de demandes d’effacement ayant échoué.
184 - B8h - End-to-end error detection count
Nombre d'erreurs détectées entre ordinateur et stockage sur disque. Il s'agit de la communication générale entre ordinateur et mémoire.
187 - BBh - Uncorrectable error count (aussi Samsung) (Nombre d'erreurs incorrigibles)
Nombre d'erreurs qui n'ont pas pu être corrigées par les routines de correction (un disque SSD utilise un système de correction comme les disques durs classiques).
Chez SAMSUNG : "Nombre total d’erreurs n’ayant pas pu être corrigées via ECC."
190 - BEh - Airflow temperature (aussi Samsung) (Température débit d'air)
Température du disque
Chez SAMSUNG : "Température actuelle des puces NAND situées à l’intérieur du SSD."
192 - C0h - Unsafe shutdown count Power-off retract count
Correspond au paramètre 174
Disques classiques: indique le nombre de fois que les têtes ont du être parquées d'urgence à cause d'une coupure de courant.
194 - C2h - Device internal temperature
Température interne
195 - B7h - ECC error rate (Taux d'erreur ECC)
Nombre d'erreurs qui ont pu être corrigées par les routines ECC
Chez SAMSUNG : "Nombre d’erreurs corrigibles. Nombre d’erreurs corrigées par le mécanisme interne de correction d’erreurs."
199 - C7h - CRC error count (aussi Samsung) (Nombre d'erreurs CRC)
Erreurs détectées et corrigées par le mécanisme CRC (cyclic redundancy check). Il s'agit des erreurs qui se produisent entre la mémoire et l'ordinateur (spikes ou surcharges électriques, etc).
Chez SAMSUNG : "Nombre d'erreurs de contrôle de redondance cyclique (CRC). S'il y a un problème entre l'hôte et la mémoire flash DRAM ou NAND, le moteur CRC comptabilise l'erreur et la stocke dans cet attribut."
225 - E1h - Host writes Load-unload cycle count
Nombre d'opérations d'écriture (par 32 MB).
Disques classiques: indique le nombre de fois que les têtes ont été parquées sur la rampe.
226 - E2h - Timed workload media wear load-in timer
Certains disques durs (utilisés dans des serveurs) ont un mesureur de charge. Le disque dur est utilisé avec une charge normale pendant par exemple 24 heures, ce qui permet d'évaluer l'usure du disque selon la charge.
Disques classiques: indique les heures de fonctionnement effectives (plateaux en rotation)
227 - E2h - Timed workload host read/write ratio Torque amplification count
Pourcentage d'écritures pendant la durée du test. Une lecture n'use pratiquement pas le disque.
228 - E3h - Timed workload timer Power off retract count
Durée de la période de test. Un programme spécial met le disque en phase de test, puis on l'utilise normalement. Après cette période, on peut évaluer l'usure que l'utilisation pendant la période de test à provoqué.
232 - E8h - Available reserverd space (Endurance remaining)
Double du paramètre 170
233 - E9h - Media wearout indicator Power-on hours
Indication du nombre d'opérations d'écriture. La valeur de ce paramètre diminue au fil du temps, mais n'indique pas nécessairement une réduction de la fiabilité.
Disques classiques: nombre d'heures sous tension
235 - EBh - POR recovery count (Nombre de récupération POR)
Nombre de pertes de courant. En cas de perte de courant sans arrêt normal du disque SSD, le firmware doit remettre à jour le tableau d'attribution (mapping table). Ce tableau indique où chaque page est stockée physiquement et est gardé en permanence en mémoire vive dans le SSD. Il est stocké sur le SSD en cas d'arrêt programmé (commande ATA STANDBY_IMMEDIATE)
Chez SAMSUNG : "Nombre de cas de mise hors tension soudaine. En cas de mise hors tension soudaine, le microcode doit récupérer l’ensemble des données de mappage et des données utilisateur lors de la prochaine mise sous tension. Cet attribut comptabilise le nombre de fois où cette séquence s’est produite."
241 - F1h - Total LBAs written
Nombre de blocs écrits au niveau de l'interface SATA (compte par 32MB). Il s'agit des blocs logiques (Logical Blocs) écrits par l'ordinateur.
Chez SAMSUNG : "Représente la taille totale des blocs LBA (Logical Block Addressing) requis pour traiter l’ensemble des demandes d’écriture envoyées au SSD depuis l’hôte. Pour calculer la taille totale (en octets), il faut multiplier la valeur remontée par SMART par 512."
242 - F2h - Total LBAs read
Nombre de blocs lus au niveau de l'interface SATA (compte par 32MB)
249 - F9h - Total LBAs written (aussi Samsung) (Total LBA en écriture)
Nombre de pages écrites au niveau de la mémoire flash (compte par GB). Un MB d'écrit au niveau de l'interface correspond à plusieurs MB écrits au niveau de la mémoire (écriture effective). Cette augmentation des données écrites est la write amplification et dépend surtout de l'algoritme utilisé par le controlleur SSD.
__________
Sur un SSD les valeurs à surveiller (en Priorité) sont (si affichées par ex dans CrystalDiskInfo)
03 Seuil de réserve
04 Seuil de réserve disponible
05 Pourcentage utilisé/Nombre de secteurs réalloués
Et pour info le % de durées de vie correspond à l usure des cellules
Ensuite suivant les marques, les modèles, version de firmware, et que l'on soit en Sata ou PCI (NVMe) le nombre de données qui apparaissent dans CrystalDisk peuvent différer (et du restes dans d'autres logiciels, et pire dans l'analyse)
Si l'auteur n'a pas toutes les données techniques du constructeur (et c'est le cas pour ne pas tout dévoiler à la concurrence) certaines valeurs peuvent être absentes ou faussées
C'est pour cela qu'il vaut mieux utiliser les outils des constructeurs (Samsung Magician,
D'autre part un SSD peut afficher un état de santé "BON" mais avec un % qui baisse au fil du temps sans que les valeurs brutes ne changent
La santé est déterminée par le SSD ou les attributs spécifique comme le " Percentage Of The Rated Lifetime Used" par ex qui n'apparait pas dans tous les programmes comme d'autres données, et qui est en fait un sombre calcul à la sauce constructeur
Certains programmes l'affichent quand même mais cela ne tient compte que de un ou deux facteurs
On voit donc nombre de personnes inquiètes parce que les indications par ex de CrystalDiskInfo n'indiquent pas 100% et indiquent des valeurs inférieures à 100%
Il faut savoir que le SSD peut tenir encore quelques années (mais c'est à calculer)
Par contre dès que cela atteint 10% il va falloir songer à investir dans un nouveau support (là aussi cela peut etre dans X mois comme dans 1 an et plus)
A 0% les données sont toujours présentes, et peuvent tenir.. un an comme cela (Normes JEDEC)
Donc.. Pas de panique
J'y ajoute que même les cycles d'écritures, TRIM etc influent sur ce %, (le fameux taux d'usure) ceux qui seront le plus impacté par la baisse du % sont ceux qui installent/désinstallent pas mal de programmes, mais SURTOUT ceux qui font du peer to peer ( fichiers torrent pour ceux qui n'auraient pas compris)
Donc si vous utilisez un SSD QVL, QVO (Chez Samsung) pour cela (ces SSD sont prévus pour un usage bureautique et stockage) le risque est de voir la durée de vie du SSD drastiquement réduite (sur la durée)
Et c'est pire, puisque pour réduire les couts et proposer du moins cher, nombre de SSD premiers prix, sont "DRAMLESS", et cela à également un impact (peut etre qu'un jour j'expliquerai le pourquoi mais là je suis encore parti pour un pavé)
Sans compter les http://sgros.blogspot.com/2013/01/seaga ... alues.html (HD et SSHD
Sur un disque dur (en priorité)
05 Nombre de secteurs réalloués
0A Nombre d'essais de relancement de la rotation
BF Nombre d'erreurs résultant de chocs ou vibrations
C5 Nombre de secteurs instables
C6 Nombre total d'erreurs incorrigibles d'un secteur
Pour les C5 et C6, si il y a un problème, "parfois" un formatage lent peut résoudre le problème, sauf si le soucis est d'ordre matériel, auquel cas, le problème réapparaitra ou la solution n'aura aucun effet
Sur les C6 par ex, cela n'aura aucun effet (idem avec les outils fournis par le constructeur pour un formatage "dit" bas niveau)
Il est conseillé de faire une sauvegarde avant d'utiliser ces outils et on devrait le faire même pour un CHKDSK (1)
C5 Ce sont les secteurs défectueux qui n'ont pas été transférés en secteurs réalloués, et sont donc considérés comme "secteurs instables"
____
(1) Avec un CHKDSK si le disque est endommagé ou mourant, il peut se dégrader davantage
-- Si le disque à un problème physique, et qu'il y ait des fichiers importants sur les clusters défectueux, qui n'ont pas été marqués comme mauvais, ces clusters peuvent fonctionner par intermittence. En les "corrigeant", le lecteur ignore ces clusters et, par conséquent, ces fichiers sont et seront inaccessibles.
- CHKDSK peut reconnaître les secteurs défectueux et les marquer comme inaccessibles.
Si on supprime un fichier par erreur, le secteur du fichier est marqué comme disponible et libre.
Dans ce cas, si on exécute CHKDSK, il trouvera les secteurs défectueux et remappera les fichiers sur les secteurs défectueux vers des secteurs de rechange, comme le secteur où se trouvait le fichier supprimé.
Ainsi, il efface définitivement le fichier supprimé accidentellement du lecteur, sans parler de le récupérer.
Pour lire les rapports CHKDSK je conseille ce petit utilitaire : viewtopic.php?p=514773#p514773
.
Qu'est ce que le SMART ?
https://www.hdsentinel.com/smart/index.php
Edit du 01/01/2023 : Un article sur le site concernant le SMART https://www.malekal.com/smartl-prevenir ... -dur-ssd/
Edit du 02/12/2023 : J'ai découvert cet article Wikipedia et (lorsque j'aurai le temps) je regarderai si il y a des choses à compléter
https://fr.wikipedia.org/wiki/Self-Moni ... kin=vector
Il faut donc se rappeler que le SMART est juste...un indicateur, il peut permettre de se "méfier", mais ce n'est pas une science exacte au jour d'aujourd'hui.
Un disque (SSD ou HD) avec un état SMART "fantastiquement excellent" peut décéder 5 minutes plus tard (PCB qui lâche), et un disque avec des milliers de secteurs réalloués mais stables peut tenir à l'inverse 3 ans de plus (mais peut lâcher également dans la minute)
Les différents modèles utilisent tous pratiquement les mêmes codes.
La documentation technique en ligne de Intel est bien faite et permet de décoder manuellement les paramètres que l'utilitaire SMART ne connait peut-être pas, tandis que les SSD de Samsung sont fournis avec une documentation (PDF) très complet
Voici donc ce que signifie les termes que l'on peut voir apparaitre dans les divers programmes d'analyse des données SMART
En premier apparaissent les explications Intel, en second, j'y ai ajouté celles données par Samsung qui souvent apportent plus de détails
Pour Samsung, j'ai mis la traduction fr telle qu'elle apparait dans ma version de Crystaldisk Info
Certains paramètres sont repris en double: selon le type de disque l'un ou l'autre paramètre sera utilisé (il n'y a pas de standardisation, même pas au niveau d'Intel).
Ensuite il faut bien avoir conscience que chaque constructeur à sa propre politique qui découle de ces données SMART, et c'est pour cela que les programmes ne disent pas toujours la même chose
Par exemple chez CRUCIAL https://www.crucial.fr/support/articles ... smart-data
Ils conseillent d'utiliser leur propre logiciel pour l'analyse des données SMART
Quant à SAMSUNG, on peut se poser des questions sur la manipulation des données SMART
https://www.anandtech.com/show/8239/upd ... d-die-size
DESCRIPTION
01 - Raw Read Error Rate (taux d’erreur brut de lecture)
Si il y a un indicateur sur lequel il ne faut pas trop s'attarder, c'est bien celui ci surtout en lecture avec des programmes autres que ceux du constructeurs, comme Crystal Disk etc (mais c'est valable également pour d'autres indicateurs)
Cela indique le taux d’erreur matérielle lors de la lecture de la surface du disque.
En général, il y’aura toujours un nombre d’erreurs lors de la lecture de secteurs mais cela n’indique pas forcement un problème avec le disque. Il est aussi normal que ce taux s’incrémente de 1 pour chaque erreur.
Les fabricants de SSDs déterminent un niveau optimum d’erreurs et en créent une échelle.
Ce niveau optimum diffère aussi d’un fabriquant a l’autre.
Par exemple, si un fabriquant considère que 3 erreurs pour chaque 100 séances de lectures est quasi parfait, il pourra peut être donner une valeur de 100 pour un taux d’erreur de 3/100.
De ce fait, en regardant ce taux de 100, le client pourrait être alarmé alors qu’en réalité ceci indique un état parfait du disque.
Par ex chez CRUCIAL (même chose chez SAMSUNG) les valeurs dépendent de plusieurs autres facteurs. Le logiciel Storage Exécutive est conçu pour interpréter les données SMART, et en fonction des valeurs et seuils qu 'ils ont établit pour chaque paramètre, cela indiquera si le SSD est en bonne santé ou pas.
5 - 05h - Re-allocated sector count (aussi Samsung) (Nombre de secteurs réalloués)
Indique le nombre de cellules de mémoire mises hors fonction. Ce paramètre indique l'état général du disque mais n'indique pas une défaillance car des pages sont mises hors-fonction dès qu'elles sont épuisées.
Quand le disque dur obtient une erreur de lecture/écriture/vérification sur un secteur, il note ce secteur comme réalloué et transfère les données vers une zone réservée spéciale (la zone de réserve). Ce processus est aussi connu sous le nom de remapping et les secteurs réalloués sont appelés remaps.
C’est pourquoi, sur les disques modernes, on ne peut pas voir de « mauvais » blocs lorsqu’on teste la surface du disque (tous les mauvais secteurs sont cachés dans les secteurs réalloués).
Cependant, plus il y a de secteurs réalloués, plus la vitesse d’écriture/lecture diminue.
Normalement le disque dispose de cellules de réserves (un disque de 60GB a en fait 64GB de mémoire, les 4 GB sont gardés en réserve).
Chez Samsung : "Nombre de secteurs ayant été réalloués. Quand le disque dur obtient une erreur de lecture/écriture/vérification sur un secteur, il note ce secteur comme réalloué et transfère les données vers un nouveau secteur situé dans une zone réservée spéciale."
9 - 09h - Power on hours count (aussi Samsung) (Durée en Heures de fonctionnement)
Nombre d'heures de fonctionnement (attention, la valeur ne peut pas être utilisée telle quelle, c'est une valeur hexadécimale).
Chez SAMSUNG : "Nombre d’heures pendant lequel le lecteur a été en fonctionnement. Cette valeur est un simple indicateur du comportement de l’utilisateur, et n’est pas directement liée à l’état de fonctionnement du lecteur. La valeur brute de cet attribut indique le nombre total d’heures (ou, selon le constructeur, de minutes ou de secondes) de fonctionnement du disque. Lorsque l’ordinateur est en mode de veille prolongée, la valeur Power-On Hours n'augmente pas."
12 - 0Ch - Power cycle count (aussi Samsung) (Nombre total de cycles marche-arrêt)
Nombre de mises sous tension
Chez SAMSUNG : "Nombre de cycles de mise sous/hors tension complets du disque." (appelé aussi Power ON count)
170 - AAh - Available reserverd space
Capacité en réserve prévue pour remplacer les cellules qui sont usées.
171 - ABh - Program fail count
Nombre d'erreurs de programmation (enregistrement de données)
172 - ACh - Erase fail count
Nombre d'erreurs d'effacement (les cellules doivent être effacées avant de recevoir de nouvelles données).
174 - AEh- Unexpected power loss (Nombre de pertes de puissance inattendues)
Également connu sous le nom de «compte de retrait de mise hors tension» selon la terminologie du disque dur classique.
La valeur brute indique le nombre d'arrêts non corrects, cumulatifs sur la durée de vie d'un SSD, où un «arrêt non propre» est la suppression de l'alimentation sans la dernière commande (indépendamment de l'activité PLI utilisant la puissance du condensateur). La valeur normalisée est toujours 100
Pour simplifier, il s'agit du nombre de fois que le disque dur est tombé sans électricité sans indication préalable (commande STANDBY IMMEDIATE). Il est important qu'une procédure de mise à l'arrêt soit suivie, pour s'assurer que toutes les données en mémoire-tampon soient stockées en mémoire flash.
Certains disques utilisent des condensateurs pour fournir du courant pendant la phase de sauvegarde d'urgence, d'autres disques essaient de reconstruire les données manquantes à partir d'une sorte de journal de bord.
175 - AFh - Program Fail Count (chip) Nombre d'erreurs de programmation (puce)
Ce paramètre est considéré comme informatif par la plupart des fournisseurs de matériel. Bien que la dégradation de ce paramètre puisse être un indicateur du vieillissement du disque et/ou de problèmes électromécaniques potentiels, elle n'indique pas directement une panne imminente du disque. Une sauvegarde régulière est recommandée. Portez une attention particulière aux autres paramètres et à la santé globale du lecteur.
177 - B1h - Wear leveling count (Nombre de niveau d'usure)
Nombre d'opération d'effacement d'un bloc. La mémoire SSD s'use à cause des opérations d'effacement. Chaque bloc de mémoire d'un disque TLC (triple level cell) peut être reprogrammé environ 2000 fois.
Le contrôleur va effectuer les opérations d'écriture de telle façon que tout le disque s'use uniformément. Une valeur de 24 indique qu'en moyenne chaque bloc a été reprogrammé 24 fois, ce qui donne une durée de vie restante d'environ 34 ans (si les blocs ont été usée en moyenne de 24/2000 = 1.2% en 5 mois).
Chez SAMSUNG : "Représente le nombre d’opérations d’effacement effectuées sur le support (le nombre de fois qu’un bloc a été effacé)."
179 - B3h - Used reserved block count (Nombre de blocs réservés utilisés - Total )
Nombre de blocs gardés en réserve qui sont utilisés. Un bloc de réserve est utilisé dès qu'un bloc ne peut plus être écrit ou effacé correctement.
Chez SAMSUNG : "Représente le nombre total de blocs réservés ayant été utilisés suite à un échec d’une demande programme ou d’une demande d’effacement."
180 - B4 - Number of unused spare blocks (spare blocks available for PCIe SSDs) (Nombre de blocs de réserve inutilisés (blocs de réserve disponibles pour les SSD PCIe)
Cet attribut que l'on voit surtout chez CRUCIAL, correspond au nombre de blocs supplémentaires disponibles si des blocs défaillants doivent être condamnés. Ce nombre varie en fonction de l’architecture NAND de base, de l’architecture du firmware, et de la capacité effective du disque, mais il s’élève généralement à plusieurs milliers.
Il diminue au fur et à mesure que le nombre de blocs condamnés augmente.
Lorsque l’attribut 180 atteint 0, le firmware passe automatiquement le SSD en mode « lecture seule ». Le SSD ne pourra plus être utilisé comme disque normal, mais l’utilisateur devrait être en mesure de récupérer les données qu’il contient et les transférer vers un nouveau support.
181 - B5h - Progam fail count (Nombre d'échecs du programme)
Nombre d'opérations d'écriture qui ont raté. Si une page rate plusieurs fois de suite, tout le bloc est mis hors d'usage et un bloc de réserve est utilisé à sa place.
182 - B6h - Erase fail count ,(Nombre d'échecs d'effacement)
Nombre d'opérations d'effacement qui ont raté. Il faut effacer tout le bloc avant de pouvoir y écrire. Si l'effacement rate plusieurs fois de suite, le bloc est mis hors d'usage.
Chez SAMSUNG : "Nombre de demandes programme (d’écriture) ayant échoué."
183 - B7h - SATA downshift count
Nombre d'erreurs de dégradation de l'interface SATA. Attribut Western Digital, Samsung ou Seagate: soit le nombre de rétrogradations de la vitesse de liaison (par exemple de 6 Gbps à 3Gbps) ou le nombre total de blocs de données avec des erreurs détectées, non corrigibles, rencontrées pendant le fonctionnement normal.
Bien que la dégradation de ce paramètre puisse être un indicateur du vieillissement du variateur et / ou des problèmes électromécaniques potentiels, elle n'indique pas directement une défaillance imminente
183 - B7h - Runtime bad count (Blocs avec une mauvaise durée - Total )
Nombre de fois que l'interface SATA a du fonctionner à basse vitesse à cause d'erreurs
Somme de toutes les opérations de programmation ou d'effacement qui ont raté.
Chez SAMSUNG : " Correspond à la somme de Program Fail Count et de Erase Fail Count. Cette valeur récapitulative représente le nombre total cumulé d’échecs de demandes programme et de demandes d’effacement."
Program Fail Count : Nombre de demandes programme (d’écriture) ayant échoué.
Erase Fail Count : Nombre de demandes d’effacement ayant échoué.
184 - B8h - End-to-end error detection count
Nombre d'erreurs détectées entre ordinateur et stockage sur disque. Il s'agit de la communication générale entre ordinateur et mémoire.
187 - BBh - Uncorrectable error count (aussi Samsung) (Nombre d'erreurs incorrigibles)
Nombre d'erreurs qui n'ont pas pu être corrigées par les routines de correction (un disque SSD utilise un système de correction comme les disques durs classiques).
Chez SAMSUNG : "Nombre total d’erreurs n’ayant pas pu être corrigées via ECC."
190 - BEh - Airflow temperature (aussi Samsung) (Température débit d'air)
Température du disque
Chez SAMSUNG : "Température actuelle des puces NAND situées à l’intérieur du SSD."
192 - C0h - Unsafe shutdown count Power-off retract count
Correspond au paramètre 174
Disques classiques: indique le nombre de fois que les têtes ont du être parquées d'urgence à cause d'une coupure de courant.
194 - C2h - Device internal temperature
Température interne
195 - B7h - ECC error rate (Taux d'erreur ECC)
Nombre d'erreurs qui ont pu être corrigées par les routines ECC
Chez SAMSUNG : "Nombre d’erreurs corrigibles. Nombre d’erreurs corrigées par le mécanisme interne de correction d’erreurs."
199 - C7h - CRC error count (aussi Samsung) (Nombre d'erreurs CRC)
Erreurs détectées et corrigées par le mécanisme CRC (cyclic redundancy check). Il s'agit des erreurs qui se produisent entre la mémoire et l'ordinateur (spikes ou surcharges électriques, etc).
Chez SAMSUNG : "Nombre d'erreurs de contrôle de redondance cyclique (CRC). S'il y a un problème entre l'hôte et la mémoire flash DRAM ou NAND, le moteur CRC comptabilise l'erreur et la stocke dans cet attribut."
225 - E1h - Host writes Load-unload cycle count
Nombre d'opérations d'écriture (par 32 MB).
Disques classiques: indique le nombre de fois que les têtes ont été parquées sur la rampe.
226 - E2h - Timed workload media wear load-in timer
Certains disques durs (utilisés dans des serveurs) ont un mesureur de charge. Le disque dur est utilisé avec une charge normale pendant par exemple 24 heures, ce qui permet d'évaluer l'usure du disque selon la charge.
Disques classiques: indique les heures de fonctionnement effectives (plateaux en rotation)
227 - E2h - Timed workload host read/write ratio Torque amplification count
Pourcentage d'écritures pendant la durée du test. Une lecture n'use pratiquement pas le disque.
228 - E3h - Timed workload timer Power off retract count
Durée de la période de test. Un programme spécial met le disque en phase de test, puis on l'utilise normalement. Après cette période, on peut évaluer l'usure que l'utilisation pendant la période de test à provoqué.
232 - E8h - Available reserverd space (Endurance remaining)
Double du paramètre 170
233 - E9h - Media wearout indicator Power-on hours
Indication du nombre d'opérations d'écriture. La valeur de ce paramètre diminue au fil du temps, mais n'indique pas nécessairement une réduction de la fiabilité.
Disques classiques: nombre d'heures sous tension
235 - EBh - POR recovery count (Nombre de récupération POR)
Nombre de pertes de courant. En cas de perte de courant sans arrêt normal du disque SSD, le firmware doit remettre à jour le tableau d'attribution (mapping table). Ce tableau indique où chaque page est stockée physiquement et est gardé en permanence en mémoire vive dans le SSD. Il est stocké sur le SSD en cas d'arrêt programmé (commande ATA STANDBY_IMMEDIATE)
Chez SAMSUNG : "Nombre de cas de mise hors tension soudaine. En cas de mise hors tension soudaine, le microcode doit récupérer l’ensemble des données de mappage et des données utilisateur lors de la prochaine mise sous tension. Cet attribut comptabilise le nombre de fois où cette séquence s’est produite."
241 - F1h - Total LBAs written
Nombre de blocs écrits au niveau de l'interface SATA (compte par 32MB). Il s'agit des blocs logiques (Logical Blocs) écrits par l'ordinateur.
Chez SAMSUNG : "Représente la taille totale des blocs LBA (Logical Block Addressing) requis pour traiter l’ensemble des demandes d’écriture envoyées au SSD depuis l’hôte. Pour calculer la taille totale (en octets), il faut multiplier la valeur remontée par SMART par 512."
242 - F2h - Total LBAs read
Nombre de blocs lus au niveau de l'interface SATA (compte par 32MB)
249 - F9h - Total LBAs written (aussi Samsung) (Total LBA en écriture)
Nombre de pages écrites au niveau de la mémoire flash (compte par GB). Un MB d'écrit au niveau de l'interface correspond à plusieurs MB écrits au niveau de la mémoire (écriture effective). Cette augmentation des données écrites est la write amplification et dépend surtout de l'algoritme utilisé par le controlleur SSD.
__________
Sur un SSD les valeurs à surveiller (en Priorité) sont (si affichées par ex dans CrystalDiskInfo)
03 Seuil de réserve
04 Seuil de réserve disponible
05 Pourcentage utilisé/Nombre de secteurs réalloués
Et pour info le % de durées de vie correspond à l usure des cellules
Ensuite suivant les marques, les modèles, version de firmware, et que l'on soit en Sata ou PCI (NVMe) le nombre de données qui apparaissent dans CrystalDisk peuvent différer (et du restes dans d'autres logiciels, et pire dans l'analyse)
Si l'auteur n'a pas toutes les données techniques du constructeur (et c'est le cas pour ne pas tout dévoiler à la concurrence) certaines valeurs peuvent être absentes ou faussées
C'est pour cela qu'il vaut mieux utiliser les outils des constructeurs (Samsung Magician,
D'autre part un SSD peut afficher un état de santé "BON" mais avec un % qui baisse au fil du temps sans que les valeurs brutes ne changent
La santé est déterminée par le SSD ou les attributs spécifique comme le " Percentage Of The Rated Lifetime Used" par ex qui n'apparait pas dans tous les programmes comme d'autres données, et qui est en fait un sombre calcul à la sauce constructeur
Certains programmes l'affichent quand même mais cela ne tient compte que de un ou deux facteurs
On voit donc nombre de personnes inquiètes parce que les indications par ex de CrystalDiskInfo n'indiquent pas 100% et indiquent des valeurs inférieures à 100%
Il faut savoir que le SSD peut tenir encore quelques années (mais c'est à calculer)
Par contre dès que cela atteint 10% il va falloir songer à investir dans un nouveau support (là aussi cela peut etre dans X mois comme dans 1 an et plus)
A 0% les données sont toujours présentes, et peuvent tenir.. un an comme cela (Normes JEDEC)
Donc.. Pas de panique
J'y ajoute que même les cycles d'écritures, TRIM etc influent sur ce %, (le fameux taux d'usure) ceux qui seront le plus impacté par la baisse du % sont ceux qui installent/désinstallent pas mal de programmes, mais SURTOUT ceux qui font du peer to peer ( fichiers torrent pour ceux qui n'auraient pas compris)
Donc si vous utilisez un SSD QVL, QVO (Chez Samsung) pour cela (ces SSD sont prévus pour un usage bureautique et stockage) le risque est de voir la durée de vie du SSD drastiquement réduite (sur la durée)
Et c'est pire, puisque pour réduire les couts et proposer du moins cher, nombre de SSD premiers prix, sont "DRAMLESS", et cela à également un impact (peut etre qu'un jour j'expliquerai le pourquoi mais là je suis encore parti pour un pavé)
Sans compter les http://sgros.blogspot.com/2013/01/seaga ... alues.html (HD et SSHD
Sur un disque dur (en priorité)
05 Nombre de secteurs réalloués
0A Nombre d'essais de relancement de la rotation
BF Nombre d'erreurs résultant de chocs ou vibrations
C5 Nombre de secteurs instables
C6 Nombre total d'erreurs incorrigibles d'un secteur
Pour les C5 et C6, si il y a un problème, "parfois" un formatage lent peut résoudre le problème, sauf si le soucis est d'ordre matériel, auquel cas, le problème réapparaitra ou la solution n'aura aucun effet
Sur les C6 par ex, cela n'aura aucun effet (idem avec les outils fournis par le constructeur pour un formatage "dit" bas niveau)
Il est conseillé de faire une sauvegarde avant d'utiliser ces outils et on devrait le faire même pour un CHKDSK (1)
C5 Ce sont les secteurs défectueux qui n'ont pas été transférés en secteurs réalloués, et sont donc considérés comme "secteurs instables"
____
(1) Avec un CHKDSK si le disque est endommagé ou mourant, il peut se dégrader davantage
-- Si le disque à un problème physique, et qu'il y ait des fichiers importants sur les clusters défectueux, qui n'ont pas été marqués comme mauvais, ces clusters peuvent fonctionner par intermittence. En les "corrigeant", le lecteur ignore ces clusters et, par conséquent, ces fichiers sont et seront inaccessibles.
- CHKDSK peut reconnaître les secteurs défectueux et les marquer comme inaccessibles.
Si on supprime un fichier par erreur, le secteur du fichier est marqué comme disponible et libre.
Dans ce cas, si on exécute CHKDSK, il trouvera les secteurs défectueux et remappera les fichiers sur les secteurs défectueux vers des secteurs de rechange, comme le secteur où se trouvait le fichier supprimé.
Ainsi, il efface définitivement le fichier supprimé accidentellement du lecteur, sans parler de le récupérer.
Pour lire les rapports CHKDSK je conseille ce petit utilitaire : viewtopic.php?p=514773#p514773
.
- Only Amiga... Was possible ! Lien https://forum.malekal.com/viewtopic.php?t=60830
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- Messages : 19570
- Inscription : 02 juin 2012 20:48
- Localisation : Thomas Anderson : Je suis dans et en dehors de la matrice :-)
SSD Idées reçues
IDEES RECUES SUR LES SSD
La source est fiable puisque émanant de chez Ontrack, spécialiste du recouvrement de données
https://www.ontrack.com/fr-fr/blog/6-id ... sques-ssd1
ATTENTION !
C'est à lire sous l'angle de Ontrack, c'est à dire ce qu'ils voient arriver (origine de pannes) dans le cadre de la récupération de données, parce que tout le monde sait que.. L'eau ça mouille, et que les équipements électriques ne l'ont jamais aimé
Donc cela peut paraitre biasé, car si on considère que moins de 20% des Français ont fait tomber leur smartphone dans les toilettes, cela correspond à environ, pour certains réparateurs, à 80% des demandes de récupération des données, alors que ce meme pourcentage correspond à la casse de l'écran, cause première des "pannes" de smarphones
Pour les PC, surtout portables, la canette de soda renversée, est un grand classique (les composants n'aiment pas les liquides surtout mélangés avec du sucre)
"Les disques SSD n'ont pas de pièces mobiles et tombent donc très rarement en panne
Comme les disques SSD ne comportent pas de pièces mobiles, ils sont à certains égards beaucoup plus fiables que les disques durs traditionnels. Toutefois, ils sont essentiellement installés dans des appareils mobiles, lesquels sont soumis à des conditions nettement plus rudes que les usages des disques durs traditionnels. Ainsi, d'après les observations de Kroll Ontrack, l’eau représente la cause la plus fréquente de défaillance des disques SSD. Elle provoque des courts-circuits et endommage les composants électroniques. Par comparaison, moins de 1 % des défaillances de disques durs traditionnels sont dues à l'eau.
Vous n'avez pas besoin d'effectuer une sauvegarde si vous synchronisez votre disque SSD dans le cloud
Il existe une règle en matière d'informatique : si vous n'avez pas une sauvegarde sur 2 supports différents, vous n'avez pas de sauvegarde valable. Cette règle ne change rien au prétexte que le support de stockage que vous utilisez est plus fiable qu’un autre. Ontrack aide souvent des clients à récupérer leurs données après que les versions d'un fichier enregistrées sur l’ordinateur et dans le cloud se retrouvent toutes deux inaccessibles, altérées, supprimées ou écrasées. Très souvent en fait, la version locale est endommagée et est ensuite synchronisée dans le cloud. Si la majorité des prestataires cloud enregistrent les versions précédentes des fichiers, cette solution ne fonctionne pas toujours. Nous recommandons toujours de procéder à une seconde sauvegarde.
Les disques SSD peuvent être facilement réparés en cas de problème
C'est faux, les disques SSD sont difficilement séparables des autres composants électroniques et sont donc très difficiles à réparer. Par exemple, les disques SSD sur la plupart des tablettes et des smartphones sont imbriqués sur la carte du circuit principal.
Si l'ordinateur n’a pas été éteint correctement ou la batterie est complètement épuisée, cela n'endommage pas les données
Pour qu’un disque SSD ne perde pas de données lorsque l'alimentation est coupée alors qu'il est en train de copier des données, il faut que ce dernier s'arrête dans un état sûr en quelques millisecondes. C'est prendre un risque d'espérer que tout se passe bien chaque fois et que les concepteurs du contrôleur ont bien fait leurs calculs. L'expérience des ingénieurs de Kroll Ontrack montre qu'il arrive parfois que les choses tournent mal. Les résultats observés sont une altération des données au point que l'utilisateur ne puisse plus avoir accès à ses fichiers.
Les disques SSD fonctionneront toujours, car ils ne s'usent pas
C'est faux, dans la mesure où la durée de vie et la capacité de tous les supports diminuent au fil du temps. Un phénomène lié à la conception et appelé "amplification des écritures" veut que la capacité et la vitesse des SSD se réduisent progressivement. Ce phénomène est dû à la façon dont le SSD efface les données de la mémoire.
La durée de vie utile d'un disque SSD peut n'être que de cinq ans s'il est souvent utilisé.
Il est conseillé de moderniser ses appareils tous les trois ans afin de ne pas avoir ce problème. Deux types de mémoire sont actuellement utilisés dans les disques SSD : SLC (cellule à un niveau) et MLC (cellule à plusieurs niveaux).
La mémoire SLC dure plus longtemps mais coûte plus cher à produire.
Tous les disques peu onéreux et la plupart des lecteurs à mémoire Flash USB utilisent une mémoire MLC.
La mémoire Flash ne peut être programmée et effacée qu'un nombre de fois limité. C'est ce que l'on appelle le nombre maximal de cycles d'écriture/effacement que peut endurer la mémoire Flash au cours de sa durée de vie.
La mémoire SLC, conçue pour des performances supérieures et une plus grande endurance, peut généralement accepter entre 50 000 et 100 000 cycles.
La mémoire Flash MLC est quant à elle conçue pour des applications moins coûteuses et un nombre de cycles nettement inférieur, généralement entre 3 000 et 5 000 (chiffres de 2011).
L’utilisation du chiffrement ne présente pas d'inconvénients majeurs
C'est faux, le chiffrement réduit considérablement la possibilité de récupération des données dans le cas où un disque dur est reformaté par erreur. L'utilisation du chiffrement intégral du disque complique ce problème.
De nombreuses situations de perte de données provoquées par des pannes logiques ne peuvent pas être récupérées.
Si la défaillance endommage le disque chiffré et empêche le montage du disque, cela implique que les données ne peuvent pas être déchiffrées.
En outre, si le disque est très endommagé, il n'est pas non plus possible de tenter une récupération partielle ou ciblée dans la mesure où l'emplacement des données importantes ne peut pas être identifié.
C'est un cas de récupération du tout ou rien, comme s'il s'agissait de faire un puzzle de 10 000 pièces où toutes les pièces ont la même couleur et la même forme !"
La source est fiable puisque émanant de chez Ontrack, spécialiste du recouvrement de données
https://www.ontrack.com/fr-fr/blog/6-id ... sques-ssd1
ATTENTION !
C'est à lire sous l'angle de Ontrack, c'est à dire ce qu'ils voient arriver (origine de pannes) dans le cadre de la récupération de données, parce que tout le monde sait que.. L'eau ça mouille, et que les équipements électriques ne l'ont jamais aimé
Donc cela peut paraitre biasé, car si on considère que moins de 20% des Français ont fait tomber leur smartphone dans les toilettes, cela correspond à environ, pour certains réparateurs, à 80% des demandes de récupération des données, alors que ce meme pourcentage correspond à la casse de l'écran, cause première des "pannes" de smarphones
Pour les PC, surtout portables, la canette de soda renversée, est un grand classique (les composants n'aiment pas les liquides surtout mélangés avec du sucre)
"Les disques SSD n'ont pas de pièces mobiles et tombent donc très rarement en panne
Comme les disques SSD ne comportent pas de pièces mobiles, ils sont à certains égards beaucoup plus fiables que les disques durs traditionnels. Toutefois, ils sont essentiellement installés dans des appareils mobiles, lesquels sont soumis à des conditions nettement plus rudes que les usages des disques durs traditionnels. Ainsi, d'après les observations de Kroll Ontrack, l’eau représente la cause la plus fréquente de défaillance des disques SSD. Elle provoque des courts-circuits et endommage les composants électroniques. Par comparaison, moins de 1 % des défaillances de disques durs traditionnels sont dues à l'eau.
Vous n'avez pas besoin d'effectuer une sauvegarde si vous synchronisez votre disque SSD dans le cloud
Il existe une règle en matière d'informatique : si vous n'avez pas une sauvegarde sur 2 supports différents, vous n'avez pas de sauvegarde valable. Cette règle ne change rien au prétexte que le support de stockage que vous utilisez est plus fiable qu’un autre. Ontrack aide souvent des clients à récupérer leurs données après que les versions d'un fichier enregistrées sur l’ordinateur et dans le cloud se retrouvent toutes deux inaccessibles, altérées, supprimées ou écrasées. Très souvent en fait, la version locale est endommagée et est ensuite synchronisée dans le cloud. Si la majorité des prestataires cloud enregistrent les versions précédentes des fichiers, cette solution ne fonctionne pas toujours. Nous recommandons toujours de procéder à une seconde sauvegarde.
Les disques SSD peuvent être facilement réparés en cas de problème
C'est faux, les disques SSD sont difficilement séparables des autres composants électroniques et sont donc très difficiles à réparer. Par exemple, les disques SSD sur la plupart des tablettes et des smartphones sont imbriqués sur la carte du circuit principal.
Si l'ordinateur n’a pas été éteint correctement ou la batterie est complètement épuisée, cela n'endommage pas les données
Pour qu’un disque SSD ne perde pas de données lorsque l'alimentation est coupée alors qu'il est en train de copier des données, il faut que ce dernier s'arrête dans un état sûr en quelques millisecondes. C'est prendre un risque d'espérer que tout se passe bien chaque fois et que les concepteurs du contrôleur ont bien fait leurs calculs. L'expérience des ingénieurs de Kroll Ontrack montre qu'il arrive parfois que les choses tournent mal. Les résultats observés sont une altération des données au point que l'utilisateur ne puisse plus avoir accès à ses fichiers.
Les disques SSD fonctionneront toujours, car ils ne s'usent pas
C'est faux, dans la mesure où la durée de vie et la capacité de tous les supports diminuent au fil du temps. Un phénomène lié à la conception et appelé "amplification des écritures" veut que la capacité et la vitesse des SSD se réduisent progressivement. Ce phénomène est dû à la façon dont le SSD efface les données de la mémoire.
La durée de vie utile d'un disque SSD peut n'être que de cinq ans s'il est souvent utilisé.
Il est conseillé de moderniser ses appareils tous les trois ans afin de ne pas avoir ce problème. Deux types de mémoire sont actuellement utilisés dans les disques SSD : SLC (cellule à un niveau) et MLC (cellule à plusieurs niveaux).
La mémoire SLC dure plus longtemps mais coûte plus cher à produire.
Tous les disques peu onéreux et la plupart des lecteurs à mémoire Flash USB utilisent une mémoire MLC.
La mémoire Flash ne peut être programmée et effacée qu'un nombre de fois limité. C'est ce que l'on appelle le nombre maximal de cycles d'écriture/effacement que peut endurer la mémoire Flash au cours de sa durée de vie.
La mémoire SLC, conçue pour des performances supérieures et une plus grande endurance, peut généralement accepter entre 50 000 et 100 000 cycles.
La mémoire Flash MLC est quant à elle conçue pour des applications moins coûteuses et un nombre de cycles nettement inférieur, généralement entre 3 000 et 5 000 (chiffres de 2011).
L’utilisation du chiffrement ne présente pas d'inconvénients majeurs
C'est faux, le chiffrement réduit considérablement la possibilité de récupération des données dans le cas où un disque dur est reformaté par erreur. L'utilisation du chiffrement intégral du disque complique ce problème.
De nombreuses situations de perte de données provoquées par des pannes logiques ne peuvent pas être récupérées.
Si la défaillance endommage le disque chiffré et empêche le montage du disque, cela implique que les données ne peuvent pas être déchiffrées.
En outre, si le disque est très endommagé, il n'est pas non plus possible de tenter une récupération partielle ou ciblée dans la mesure où l'emplacement des données importantes ne peut pas être identifié.
C'est un cas de récupération du tout ou rien, comme s'il s'agissait de faire un puzzle de 10 000 pièces où toutes les pièces ont la même couleur et la même forme !"
- Only Amiga... Was possible ! Lien https://forum.malekal.com/viewtopic.php?t=60830
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- Messages : 19570
- Inscription : 02 juin 2012 20:48
- Localisation : Thomas Anderson : Je suis dans et en dehors de la matrice :-)
SSD Les constructeurs changent les composants
ATTENTION !
Les constructeurs de SSD changent les composants, et pas que les puces mémoires entre les premières versions (souvent testées dans divers medias) et les versions mise sur le marché ensuite
En mode lecture, le plus souvent, cela ne change pas grand chose, mais en mode écriture avec une grande quantité de données cela peut être catastrophique (lié à l'usage en fait)
Idem pour l'endurance (même si ...)
Le soucis est surtout liée à l'information et où le client est trompé (perso je ne prend jamais un SSD en QLC qui va me servir de disque de boot)
C'est un site Chinois qui dénonce l'arnaque (C'est le monde à l'envers :-) https://www.expreview.com/80127.html même si ce n'est pas nouveau, que WESTERN DIGITAL n'est pas le seul à pratiquer, et que surtout cela ne touche pas que le monde des SSD (Depuis des années on peut le voir également pour les dalles de TV, etc et ce n'est rarement au bénéfice des acheteurs)
---------
WESTERN DIGITAL
Exemple du SSD WESTERN DIGITAL BLUE DISK modèle SN550
Il s'agit d'un modèle bon marché sans mémoire cache DRAM.
Pour compenser les lenteurs d'écriture des puces TLC (3 bits de données par cellule), une partie de la mémoire flash fonctionne comme un
cache en mode SLC (1 bit par cellule), nettement plus rapide. Le cache maximum est de 12 Go
Initialement ce SSD à une vitesse de lecture continue de 2400 MB/s et une vitesse d'écriture de 1950 MB/s.
Bien que son cache SLC ne soit pas volumineux, il peut toujours maintenir une vitesse d'écriture élevée une fois le cache (12GB) SLC épuisé.
Le SanDisk Extreme 1 To, qui est le même modèle que le Western Digital SN550, (Sandisk appartient à Western Digital ) a toujours une vitesse d'écriture de 849 MB/s après épuisement
du cache SLC.
La nouvelle version du SN550 a été remplacée par une nouvelle mémoire flash (002031 1T00 contre 60523 1T00 précédemment) et le numéro du
firmware a également changé.
Ces nouveaux SN550 ne proposent que la moitié de la vitesse d'origine une fois le cache SLC épuisé, ce qui est presque le même niveau que le
Western Digital WD Green SN350 960GB, mais qui est vendu presque...50% moins cher
Le WD Blue SN550 à 1 To était encore vendu récemment autour de 150 euros (et pas la première version) alors que la version WD green SN350 sortie en février était initialement à 85 euros
Depuis quelques temps on ne trouve plus de SN350 à 1To et la version SN550 est trouvable autour de 80 à 85 euros.. Curieux non ? :-)
En mode lecture cela ne change pas, mais en mode écriture on passe donc à 390 MB/s une fois le cache épuisé, c'est à dire pratiquement la
même vitesse que le modèle SN350 qui plafonne à 376 MB/s
Comparaison des numéros de mémoire flash et firmware
Le numéro de mémoire flash sur ce nouveau SN550 est devenu 002031 1T00, le numéro de version du micrologiciel est 233010WD et la mémoire
flash utilisée dans l'ancienne version est 60523 1T00
Le numéro de firmware est 211070WD
On peut voir que la mémoire flash et le firmware ont étés modifié, mais le contrôle principal est toujours le SanDisk 20-82-01008-A1 d'origine.
Ce qui est intéressant, c'est que le numéro de firmware du Western Digital Green Disk SN350 commence également par 23, mais le modèle de
mémoire flash utilisé est différent du nouveau SN550.
Du point de vue du constructeur, Utiliser plus de 12 GO de cache, reste accessoire pour une majorité de gens, SAUF pour ceux qui font par ex
du montage video, ou écrivent de grandes quantités de données
Le soucis est que WD n'a pas prévenu les consommateurs,
Ce n'est pas la première fois que WD trompe son monde. Il faut se rappeler l'affaire des disque durs vendus pour des NAS, en technologie SMR
(donc inadaptée) et pour laquelle WD a été poursuivi
Sont ils les seuls à agir de même ? Malheureusement NON
Chez SAMSUNG :
Source https://www.tomshardware.fr/quand-samsu ... leurs-ssd/
Chez SAMSUNG ce n'est pas complètement négatif, puisque le 970 EVO PLUS hérite du contrôleur du 980 Pro (Elpis au lieu du Phoenix), avec un plus gros cache SLC (115 Go contre 45).
Par contre une fois le cache épuisé, on passe à 800 MB/s contre 1 500 MB/S pour le 980 pro
Dans les changements de versions, mais que contrairement à WD, SAMSUNG indique, du SSD 970 Evo Plus, on retrouve toujours de la NAND 3D TLC à
96 couches, de la DRAM LPDDR4, mais on passe d'un contrôleur Phoenix à un contrôleur ELPIS (qui est celui du 980 Pro)
Pour résumer SAMSUNG a effectué un changement de contrôleur et a changé la taille du cache pseudo SLC)
Par contre, de mémoire, Samsung avait introduit un système de sécurité (je ne sais sur quelle gamme de NVMe) pour éviter que ses NVMe dépassent 65°C (puisque la plage de fonctionnement est de 0 à 70°c) afin d'éviter le throttling constaté
C'est pour cela que les perfs n'étaient pas l'identique (en baisse donc) sur les premiers tests des revues/sites, et les utilisateurs dès lors qu'on s'approchait des 65°C.
On perd juste un peu de vitesse dans les débits
Par contre petite histoire dont on attend les explications, c'est la disparition du nom du contrôleur sur la fiche technique pour le 980 PRO et ce bien avant celle du 970 EVO Plus
Cela laisse présager là aussi le swap
Chez CRUCIAL
Le SSD BX500 emploie la technologie TLC et le SSD MX500 est devenu le premier disque Crucial basé sur le TLC NAND 3D 64 couches de Micron.
Seulement avec les séries BX500/MX500 on a eu droit au fil du temps, a du SILICON MOTION SMI2258(XT) qui est devenu SMI2259(XT) - qui est plus cheap - à la place des bons vieux Marvell comme sur les MX300, et de la NAND TLC 96L
Soit :
MX500 = SM2258
BX500 = SM2258
BX500 1 To = SM2259XT (Le pire)
Nombre de personnes ont eu des problèmes de chauffe, des pertes brutales de performance, des gels (freeze et micro freeze), des BSOD et.. des SSD morts (la mort d'un SSD est souvent le fait du controleur, et très très rarement des puces mémoires)
Sans compter le reste https://www.touslesdrivers.com/index.ph ... _code=7905
C'est la même chose avec les SSD P2 NVMe M.2, livrés initialement avec de la TLC et qui se retrouvent avec de la QLC moins chère, plus lente
et moins endurante
A la base c'est du bas de gamme pas performant, mais là c'est encore pire
En tests réels on se retrouve avec du 40 Mbps, c'est à dire un taux de transfert digne de l'USB 2.0 et plus lent qu'un disque dur
Crucial a effectué le changement sans modifier le nom ou le numéro du produit ni publier d'annonce.
Pire, au moment où ce NVMe était vendu, CRUCIAL à livre et publié des spécifications inférieures pour les lecteurs TLC d'origine à ce qu'ils
étaient capables d'atteindre, c'est à dire.. celles de la QLC
C'est donc qu'ils savaient qu'ils allaient passer ensuite à de la QLC, pendant que tout le monde s'extasiait sur les performances de la TLC
de base qui démontraient que ce modèle était plus rapide que ce qu'il était indiqué sur le papier
J'appelle cela de la malhonnête, et de la fraude
Et ne croyez pas que MICRON et sa marque CRUCIAL a souffert de la crise COVID
"Micron, qui commercialise la marque Crucial auprès des consommateurs, a déclaré un chiffre d'affaires de 7,42 milliards de dollars au
dernier trimestre, contre 5,4 milliards de dollars il y a un an. La l'entreprise est marge brute de passée de 33 % à 42 %. Son résultat d'exploitation est passé de 981 milliards de dollars au troisième trimestre 2020 de son trimestre fiscal à 1,799 milliard de dollars au troisième trimestre fiscal 2021. Pour célébrer cette formidable croissance, Micron a annoncé un dividende en espèces trimestriel , affirmant : « L'introduction d'un dividende en actions ordinaires reflète notre confiance dans l'avenir de Micron. et notre engagement à créer une valeur attrayante pour les actionnaires."
Voila tout est dit. La priorité est l'actionnaire pas le client
Edit du 01/10/2021
CRUCIAL vient de sortir la version 4To du MX500
Le soucis c'est que ce MX500 n'a rien à voir avec la version de 2017
Si l'on va sur le site, on ne dispose que des caractéristiques communes
https://www.crucial.fr/ssd/mx500/ct4000 ... ct20730120
Certains testeurs ont eu une fiche technique et descriptif
Le soucis
Alors oui on a bien de la NAND TLC 3D mais CRUCIAL n'a pas indiqué le nombre de couches (Sur les autres versions MX c'était géré par un SM2258 de Silicon Motion et de la 3D-TLC-NAND de la génération 64 couches de la société mère Micron)
Sur la photo on ne le voit pas mais il y a quatre packages NAND d'installés (2 par face) mais chacun possède 16 matrices de 512 Gbit chacune, ce qui signifie quatre fois la capacité de stockage de 1 To par package, donc 4 To au total.
MAIS ! Comme on peut le voir sur la photo, ce SSD n'utilise pas le SM2258, mais le SM2259, comme ce fut le cas avec la nouvelle édition du MX500 avec 1 To .
La fiche technnique n'est donc pas à jour
Le PDF de MICRON sur le SM2259 https://www.siliconmotion.com/download/ ... 201910.pdf indique que le contrôleur 4 canaux de Silicon Motion ne supporte en fait qu'un maximum de 32 puces (8 CE par canal). Cependant, dans ce cas, il y en a 64, soit deux fois plus de jetons (dies).
Interrogé à ce sujet, Crucial a expliqué que les 64 matrices peuvent toujours être adressées par le contrôleur à l'aide du "Mode d'entrelacement à 4 voies" et que les performances devraient être au niveau du modèles 2To
Est- ce que le contrôleur peut réellement gérer les 64 puces de mémoire ?
Si Micron utilisait son propre QLC-NAND avec 1 024 Gbit au lieu de la TLC-NAND avec 512 Gbit, la limite de 32 puces pourrait également être maintenue. Mais la QLC-NAND est plus lente et moins durable.
La décision de conserver TLC-NAND est initialement louable, mais il reste à voir avec quelle efficacité le contrôleur peut réellement gérer les 64 puces de mémoire.
Les éditeurs ne connaissent aucun autre SSD avec un contrôleur SM2259 et 4 To d'espace de stockage.
Pour rappel : Sur la nouvelle génération de MX500 1 To ("M3CR033") on a vu apparaitre le Silicon Motion SM2259H avec de la 3D NAND à 96 couches
https://www.computerbase.de/2021-04/cru ... r033-test/
Autre problème :
Il reste à clarifier si cela a un impact significatif sur les performances (sur les autres générations de MX500 c'était 1 024 Mo de DDR3-1866 (2 × 512 Mo)
Le soucis avec le SM2259 c'est qu'il ne peut en principe pas gérer 4 Go de DRAM (mais il y a une marge entre 512 et 4 Go)
Ce qui est inquiétant c'est qu'on se dirige vers des SSD réalisés à l'économie et il est fort possible que cette histoire de réduction de DRAM préfigure de nouvelles séries de SSD
Crucial admet que cela entraîne une perte de performances sur certaines charges de travail et que la décision a bien été prise en fonction des coûts.
Donc visiblement on est dans le cas de figure du QVO de SAMSUNG : Ne pas l'utiliser en disque de boot, ou alors pour de la bureautique légère (A exclure donc pour les utilisateurs de P2P dont personne ne parle dans les tests, qui vont réduire la durée de vie à peau de chagrin)
Par contre il sera utile en disque secondaire pour stocker vos photos, films...ou pour une collection de jeux steam
Les SSD NVMe sans leur propre cache DRAM ont montré que même quelques Mo de mémoire système réservés par "Host Memory Buffer" (HMB) sont suffisants en remplacement de la DRAM pour éviter une baisse des performances. Le 980 (sans Pro) de Samsung , par exemple, n'utilise que 64 Mo de RAM système en tant que HMB et ne présente donc aucune faiblesse. Cependant, les SSD SATA n'ont pas la fonction HMB NVMe, donc au moins une petite puce DRAM dédiée doit être installée.
S'il n'y a ni (petit) cache DRAM dédié ni support HMB, il y a un risque de panne du système, comme ce fut le cas avec le Toshiba TR200
https://www.computerbase.de/2017-11/tos ... -ssd-test/
Pour le reste, si on regarde la concurrence, le SAMSUNG 870 EVO 4 To est plus de deux fois plus endurant que ce modèle de chez CRUCIAL, meme si on terme de prix on devrait plutot le rapprocher du QVO
Néanmoins il faut être prudent sur ces histoires d'endurance, car on ne peut pas comparer non seulement entre les marques, mais également les modèles et pire encore si le produit à subi une évolution dans la gamme (puces/couches, contrôleur, ...)
Ensuite il y a le bas de gamme et le haut de gamme (On peut avoir les memes puces, mais des contrôleurs différents sans compter la qualité de l'électronique etc) Les histoires de caches également ont un impact
En plus il faut prendre les déclarations d'endurance des constructeurs avec des pincettes
Concernant le prix (ce jour) : Il est affiché à 364,79 € T.T.C chez Crucial.fr, MAIS
- chez LDLC on le trouve à 449.95 euros
- Idem chez Materiel.net (normal c'est la meme sté)
Là, qu'on ne vienne pas me parler de la hausse du prix des composants, parce qu'on est quand même à 85 euros de différence( oui pas de stocks, les quantités commandées bla bla bla etc n'empêche que...)
Dans les 3 cas il faut ajouter les frais de port
- Sur Amazon au plus bas on le trouve à : 363.99 euros
Source https://www.computerbase.de/2021-09/cru ... cherplatz/
Et chez les autres ?
C'est pareil
Chez A-DATA avec par exemple le modèle PG SX8200 Pro
A data a modifié son SSD qui a subi une réduction de 41% des performances de copie de fichiers et une baisse de 500 Mbps des charges de travail légères après les modifications.
En fait, une révision ne peut même pas répondre à la spécification nominale de 3 500/3 000 Mbps, sans parler des performances aléatoires 4K
nominales, comme les autres révisions.
A DATA a changé le contrôleur, celui ci est passé du SMI SM2262ENG (le plus performant) au contrôleur SMI SM2262G, de firmware, et de NAND
qui d'origine était de la TLC IMFT 64L en TLC 96L de chez MICRON
A noter que le SM2262ENG était livré avec le contrôleur cadencé à 650 MHz avec une vitesse d'interface de la flash de 650 MTps
Cela pouvait introduire de la chauffe, et réduire la durée de vie, mais les performances étaient là
Dans une troisième mouture, A DATA est redescendu à ...575Mhz et a encore changé de NAND en passant à de la flash TLC B27B 96L de Micron,à de
la SAMSUNG 64L TLC tout en conservant le contrôleur Silicon Motion SM2262G, mais surtout en abaissant la vitesse de l'interface Flash de 650 MTps à .. 525 MTps
A cela on y ajoute le cache SLC qui passe de 160Go à ... 12 Go
Dans les tests en mode réel, cette version V3 voit les performances diminuer globalement de 10 à 12% (applications quotidiennes) mais a pris
un retard supplémentaire de 36 % à 41 % lors des tests de copie ou de grosses charges
Par contre, il est de 1 à 2 % plus rapide lors de la relecture des gros fichiers de test.
Sur des machines de type station de travail et un benchmark approprié, la V1 était un poil supérieure globalement en terme de performances par rapport au Samsung 970 EVO Plus
Avec la V3, sur le même test, le modèle de A DATA accuse un retard de 2 minutes (pour les utilisateurs qui font un usage pro c'est important)
Chez ADATA tout cela a été fait sans informer les consommateurs
Les fiches techniques de la société indiquent simplement que le lecteur est livré avec un contrôleur « SMI » et ne répertorie pas le numéro de modèle du contrôleur SSD réel.
Adata indique que toute modification apportée au contrôleur devrait toujours permettre au SSD de fonctionner conformément aux spécifications,
et que le changement visait en fait à prolonger la longévité du SSD. Cependant, la société n'a pas modifié la garantie ou les cotes d'endurance pour refléter le changement.
Adata évalue le XPG SX8200 Pro pour offrir des performances de transfert séquentiel allant jusqu'à 3,5/3,0 Go/s en lecture/écriture et pour
supporter jusqu'à 390 000/380 000 IOPS en lecture/écriture aléatoires. Bien sûr, selon le site Web d'Adata, ces évaluations "peuvent varier
en fonction de la capacité du SSD, du matériel et des logiciels de l'hôte, du système d'exploitation et d'autres variables système".
MAIS ce n'est pas la première fois que A-DATA procède ainsi
La série XPG SX8100 est aussi concernée
Le modèle 4 To n'est plus équipé de NAND TLC comme le suggèrent les référencements chez certains revendeurs (où du reste la mention de "3D NAND TLC " a été ensuite remplacée par « 3D NAND)
En effet la NAND TLC a été remplacée par ... de la NAND QLC 96L de chez Micron
En plus A DATA indique toujours une endurance de 2560 To, ce qui optimiste pour de la QLC
Samsung arrive à peine à 1440 To pour son 870 QVO 4 To en SATA, d'autant plus lorsque l'on sait que les SSD NVMe MP400 4 To de Corsair et Rocket Q 4 To de Sabrent affichent une endurance de seulement 800 et 940 To respectivement mais avec un contrôleur Phison, alors qu'ils exploitent eux aussi cette NAND 3D QLC 96L de Micron.
Bref, on fait du mensonge par omission, on joue sur les mots
On pourrait continuer sur les autres marques comme
KINGSTON
avec le V300, A 400 et son contrôleur minable, le Phison S11, que l'on retrouve dans l'entrée de gamme des SSD Toshiba / Palit / Patriot / Kingston (Ils ont jonglé entre le Phison S11 et le SandForce SF-2281)
Donc se souvient des séries" Kingston A400 - 240Go format SATA" qui n'étaient plus reconnus au bout d'un certain temps sauf comme "SATAFIRM S11" . La faute au fameux contrôleur Phison S11 qui lâchait
De ce fait les données devenaient illisibles
Le même était utilisé dans les Toshiba TR200, Palit UVS line, Patriot Spark
Sans compter que les V300 se sont retrouvés ensuite avec un type de mémoire, qui est de type Toggle/ONFI synchrone pour les premieres moutures, mais asynchrone dans les modèles qui ont suivi.
La mémoire asynchrone grève grandement les débits séquentiels des SSD,
On avait 459 Mo /s en lecture et 141 Mo /s en écriture lors du lancement, mais les modèles vendus actuellement passent à 185 Mo /s et 94 Mo /s
En plus les fiches techniques sont trompeuses car les tests ne font pas état du fait du modèle de controleur SandForce, que celui ci intégre un algorithme de compression en temps réel, basique
Cela trompe les programmes de tests
Ceux ci annoncent par ex des débits de 540 Mo /s en lecture et 490 Mo /s en écriture.
Seul problème, en pratique on en est bien loin et OCZ qui dispose d'un modèle similaire, l'Agility 3, annonce pour sa part 525/475 Mo /s dans ce cas mais aussi 180 Mo /s en lecture et 65 Mo /s en écriture lorsque l'algorithme n'est pas/plus fonctionnel, ce qui change tout
D'autres modèles sont à éviter comme le modèle NVMe Kingston A1000 (considéré comme le bas de gamme) et son contrôleur Phison E8 (Phison PS5008-E8 avec 2 lignes PCIe Gen3 que l'on retrouve également dans le bas de gamme PNY )
Phison avait deux solutions Le PS5008-E8T qui est une conception sans DRAM et qui utilise la technologie Host Memory Buffer (HMB) pour mettre en cache la carte d'adresses physique-logique dans la mémoire de votre système
Il est décrit comme une option très économique pour les constructeurs de systèmes (vise les OEM donc un PC vendu avec un Kingston de ce modèle est suspect en terme de performances. Le soucis, c'est que le "T" à la fin du E8 n'est jamais indiqué
L'autre est le PS5008-E8 qui est le modèle grand public de la série E8. Ce contrôleur augmente les performances en utilisant la DRAM locale sur le SSD. Avec la mémoire DRAM plus proche du contrôleur, le saut de latence est inférieur à celui d'atteindre la mémoire système via le bus PCI Express.
La conception x2 (les lignes) réduit la complexité de la R&D et est moins chère à fabriquer.
Les SSD "normaux" utilisent une connexion x4, mais dans ce cas, deux des voies sont désactivées. Cela permet aux ordinateurs portables de désactiver deux voies PCI Express et le matériel qui leur est associé, comme les commutateurs PCIe.
Cela réduit la consommation d'énergie globale du système.
Le truc c est qu'il n'est pas indiqué que ces SSD NVMe sont principalement à destination des ordis portables
On peut les retrouver lors des soldes sur certains sites de vente connus par des revendeurs tiers
Même chose pour le A2000 (à ne pas confondre avec le KC2000 qui est le haut de gamme de la marque tout comme le KC3000 avec Phison E18 ) où là on a eu droit à la valse des contrôleurs sans que le client en soit informé (Silicon Motion SM2263-series et Phison PS5008-E8)
Ex avec un 120 Go V300 en nouvelle version mais c'est la même chose pour les capacités >
Pour les Sabrent, Corsair, Sandisk, etc Le problème est à l'identique
Juste une précision sur le SSD NVMe RENEGADE FURY
- Il faut savoir que les écritures ou lectures séquentielles, ou aléatoire, différent suivant les capacités et ne sont au max qu'a partir du 1 To mais surtout à partir du 2 To
Les testeurs ont reçu des modèles au mini de 1 To
Sur un 512Go par ex on n'aura en écriture que du 3 900Mbps max théorique (ca se situe plutot autour de 3 500Mbps en réel), alors que sur un 4to on sera à 7 000Mbps toujours en écriture
A cela on y ajoute les soucis de cache (taille inférieure sur les SSD de petite capacité) Sur la version de 1 To, au bout d'une minute en écriture intensive, la vitesse diminue de près de 50%)
C'est pour cela que certains se sont retrouves en 2000 Mbps soit une vitesse inférieure à du PCI-e 3 qui est à 2900 Mbps
Donc outre la taille, il y a un autre problème (voir plus bas)
Ensuite pour l'aspect marketing.. Kingston ment-il ? Et bien non
La cible sont les "gamers, à qui sous cette dénomination on en profite pour leur fourguer un peu de tout, et surtout à des prix largement plus élevés
Il est dit : Le SSD Kingston FURY Renegade est optimisé pour réduire les temps de chargement des jeux et des applications,
En jeux ce sont les vitesses de lecture qui sont plus importantes que les écritures
(même si ce sontles vitesses aléatoires – et non séquentielles – qui détermineront plus probablement la vitesse réelle d'un SSD)
De ce côté là.. Pas de soucis la tenue en lecture est bien présente quelque soit la capacité du SSD et donc kingston ne ment pas
A savoir :
Si on lit les caractéristiques, l 'E18 de Phison qui équipe ce SSD, est un contrôleur à huit canaux
Alors je ne sais pour tous les modèles, mais cela a été le cas pour d'autres modèles de la marque, et si les SSD "normaux" utilisent une connexion x4 ou x8, sur les versions OEM, à destination des ordinateurs portables, il a été vu que des voies (canaux) peuvent être désactivées.
Cela permet aux ordinateurs portables de désactiver deux voies PCI Express et le matériel qui leur est associé, comme les commutateurs PCIe.
Cela réduit la consommation d'énergie globale du système et surtout la chauffe qui impacte la vitesse et les données
Le truc c est qu'il n'est pas indiqué que ces SSD NVMe sont principalement à destination des ordis portables
On peut les retrouver lors des soldes sur certains sites de vente connus par des revendeurs tiers et là c'est la surprise sur les PC de bureau concernant les performances
Ce qui peut impacter sur la vitesse
Sur ce SSD il y a dissipateur thermique fin en aluminium augmenté d'une fine couche de graphène pour une conductivité thermique "optimisée", mais malgré cela il a été constaté lors de tests en écriture des pointes à 68°C (la température d'un SSD est de 0 à 70°c)
Donc pour des raisons de sécurité, le SSD va throttler, c'est à dire abaisser sa vitesse, etc afin de revenir à une température de fonctionnement sécuritaire
PATRIOT avec son Viper VPN 100
Le contrôleur PS5012-E12 a été remplacé par le PS5012-E12S, ce qui n'est pas négatif, la nouvelle puce étant plus petite et disposant d'un IHS en métal pour une meilleure dissipation
Cet E12S est venu avec un passage de BiCS3 (64L Toshiba/Kioxia TLC) à 96L IMFT (Intel/Micron) TLC qui ont des architectures différentes ( CTF vs FG) et qui impacte les profils d'endurance.
Elle nécessite aussi moins de DRAM pour son fonctionnement.
Sur le papier, ses performances sont même un peu meilleures que le PS5012-E12. Cette évolution a aussi accompagné le passage de la NAND 3D TLC 64L de chez Toshiba à la NAND 3D TLC 96L de chez Micron (moins bonne)
Le problème : "Au lieu des 2 Go de DRR4 SK Hynix du SSD testé en 2019, cet exemplaire acheté en 2021 n'a plus qu'une seule puce Kingston DDR3L de 512 Mo, l'emplacement au dos laissé vide (voir image ci dessus) — une quantité par ailleurs identique à celle du VPN100 1 To retesté en 2020 par Igor's Lab et qui en possédait pourtant bien 1 Go en 2019, ce qui veut dire que le changement a été fait depuis un p'tit moment.
On sait que la DRAM affecte les performances générales et l'endurance d'un SSD "
Source https://www.igorslab.de/en/patriot-vipe ... ifference/
PNY et son XLR8 CS3030
Initialement montés de NAND 3D TLC mais dont l'endurance suggère de la NAND QLC, ou de la NAND TLC moins bonne, voire même d'ancienne génération.
Le numéro de modèle est resté cependant inchangé (M280CS3030-250-RB)
La doc initiale faisait état de NAND 3D TLC, mais la nouvelle plus pudique indique juste NAND 3D
On peut voir sur ce tableau que l'endurance n'est plus la même
Ce n'est pas la première fois que PNY s'amuse à cela puisque la Sté avait fait la même chose avec ses SSD SATA CS900 en 2020, en échangeant la TLC d'origine pour de la QLC pour "des raisons d’approvisionnement" (mais toujours sans avertir les clients)
En plus le modèle initial est considéré comme le très bas de gamme de PNY, avec des puces d'anciennes génération mais surtout avec un contrôleur qui pose problème et qui est considéré comme le pire des controleurs : le Phison PS3111-S11
Il y a eu une révision depuis cependant mais il n'est pas implémentésur ce modèle de PNY
C'est ce contrôleur que l'on retrouve sur les SSD vendus sur Wish et Ali express sous des marques chinoises inconnues et que l'on retrouve sur les KINGSTON de petite capacité (128Go par ex)
Les gens ont au mieux des problèmes liés au SATA (erreurs de copie, erreurs E/S, des données, tables de partition, qui disparaissent) et au pire le SSD qui devient HS entre quelques heures et 6 mois ou un an, ou plus suivant usage/configuration de Windows, de ses paramètres, des applications utilisées, avec de forts ralentissements dont au démarrage du PC, de WIndows
Le fait de la mauvaise gestion de maintenance (il n'y a pas que le TRIM pour la maintenance du SSD) du fait du contrêleur n'arrangeant rien
En plus au niveau des performances vu le cache (il n'y a pas de puce DRAM) ridicule, vite rempli, il est de 4Go sur le modèle en 256 Go dont il faut espérer qu'il ne soit pas inférieur sur ce modèle en 120 Go) on arrive à des performances INFÉRIEURES à celles d'un disque dur en 5 400tr/m soit au mieux 70 Mo/s mais en réalité cela tourne entre 25 et 35 Mo/s
Seul le temps d'accès qui est commun à tous les SSD fait illusion
On pouvait encore le trouver autour de 15 euros il y a quelques temps.. Ca ne vaut pas plus
Perso, du fait du contrôleur je ne m'en servirai meme pas comme support externe en USB pour remplacer une clé USB (il n'est pas plus fiable qu'une clé USB)
SANDISK
Sandisk SSD Plus de 256Go (240Go)
A ne pas confondre avec les SANDISK séries Ultra PLUS - SDSSDHP et contrôleur Marvell 88SS9175 - Le même que chez Crucial avec son M4) couplé à de la mémoire MLC gravée en 19 nanomètres qui garantit au moins 3000 cycles de lecture/écriture
Sandisk et le modèle "plus" est considéré comme le bas de gamme de la marque.
Néanmoins les composants sont de bonne qualité mais c'est sur le contrôleur que Sandisk a fait des économies
En plus la puce n'intègre donc pas de contrôleur DRAM, pas de système de cache SLC (nCache).
Il est donc impératif avec ce SSD de laisser sur Windows, la mémoire cache activée, contrairement à ce que l'on voit dans certains tweaks proposés sur internet.
Sur de la mémoire MLC le cache va intercepter les données pour les rassembler, et ce SSD est équipé (à ce jour) "normalement" de MLC
Le soucis, c'est que ce produit a une nomenclature variable (BOM), ce qui signifie que le fournisseur peut (et modifie) les composants internes régulièrement sans changer le nom de la série de produits.
A sa sortie quelques utilisateurs finaux ont reçu des disques de référence SDSSDA-240G-G25 avec un contrôleur SM2246XT de Silicon Motion, Inc. (SMI) et une mémoire flash MLC gravée en 19nm
Mais des utilisateurs ont signalé que le SSD Plus était maintenant fourni sous la référence SDSSDA-240G-G26, avec un contrôleur SMI SM2256S et de la TLC NAND en 15nm
En version 480 Go de cette gamme plus, on est passé d' un controleur Marvell 88SS1074 a du Silicon Motion SM2256S (le même que pour le 120Go) ainsi que de la TLC 19 nm a de la TLC gravée en 15 nm
En revanche, la version de 960 Go diffère puisque ce modèle renferme un contrôleur SM2258XT dont la particularité est de gérer la mémoire TLC 2D et 3D.
Donc avec ces modèles il est impératif également d'utiliser les outils de SANDISK (pour le cache) si toujours équipé en MLC
Evidemment avait été mis le débit séquentiel en écriture, qui avait évolué dans le bon sens, pour par ex le 240Go qui passait à 440 Mo/s contre 350 Mo/s auparavant sans évoquer les soucis possible avec le cache
On pourrait aussi parler de la série Ultra II.
la version de 480 Go embarquait un contrôleur Marvell 88SS9189 et de la mémoire TLC 19 nm (8 puces).
Le produit porte la référence SDSSDHII-480G-G25 et est notamment donné pour un débit en écriture aléatoire pouvant grimper à 83 000 IOPS.
La version vendue ensuite porte la même référence, mais affiche un débit en écriture aléatoire de 80 000 IOPS.
À l'intérieur, on trouve un PCB de taille réduite qui abrite toujours de la mémoire TLC (4 puces), mais celle-ci est à priori en 15 nm tandis que le contrôleur est désormais un Marvell 88SS1074.
Chez SANDISK (pour rappel qui appartient à Western Digital) la valse des composants ce n'est pas nouveau. C'était déjà connu il y a 5 ou 6 ans avec leurs cartes SD et clés USB
Du reste on peut trouver nombre de SSD "No name" qui sont équipés de puces SanDisk 15nm TLC, pas réputées pour leur fiabilité ou SandDisk BICS 64L 3D TLC avec controleur silicon motion (c'est garanti jusqu'à 40 To d'écriture, mais cela peut faire plus. C'est le controleur qui lâche avant)
Et chez INTEL ?
INTEL est le seul,intérrogé par les journalistes d' Extrem Tech à avoir assuré qu'il n'a pas et n'a jamais modifié les composants d'un SSD déjà commercialisé.
Mais Intel se retire du marché des SSD (tout en y gardant un pied)
https://www.comptoir-hardware.com/actus ... gies-.html
https://www.extremetech.com/computing/3 ... e-same-sku
OU EST LE PROBLEME ?
Globalement, les performances de lecture et d'écriture séquentielles peuvent être conformes aux fiches techniques, MAIS (ce qui n'est JAMAIS
indiqué) les performances aléatoires et les vitesses d'écriture soutenues peuvent varier considérablement et avoir un impact important sur les performances réelles.
Idem sur la durée de vie suivant usage car la technologie employée à son mot à dire
Si on fait abstraction de tout ce qui précède et que l'on se réfère uniquement par ex aux SAMSUNG EVO et QVO..
On ne compte plus le nombre de SSD en fin de vie de type QVO, pour une simple raison : Les utilisateurs oublient de dire ou ne savent pas, que l'usage du P2P abusif va au fil du temps flinguer leur SSD, surtout qu'ils s'en servent également comme disque de boot pour l'OS, peuvent aussi faire du traitement vidéo (meme si en amateur, 2h de traitement/montage video monte a 200 go sans problème)
En TLC sur un disque de 256 Go qu’on aura déjà utilisé durant une durée de 5 années la garantie de durée avec l'écriture est de : 256 Go x 1000 cycles = 256 000 Go écrits et effacés, soit 140 Go de données par jour.
Donc en usage courant, la marge est plus que confortable (meme en usage intensif un usage familial tourne autour de 10 à 30 Go/jour)
Il faut cependant revoir cette valeur car les SSD écrivent le plus souvent plus de 1 Mo en mémoire lorsqu’ on demande ce Mo sur le SSD.
En fonction du type de donnée, de la place disponible dans le SSD et de la qualité de flash libre, le SSD écrira 1,5 à 2 Mo pour chaque méga requis. Ce qui revient à 70 Go de données par jour EN PLUS à écrire sur un SSD de 5 ans
Chez Samsung pour les derniers 870 QVO, l'endurance annoncée en écriture est de :
360 / 720 / 1 440 / 2 880 TBW pour les versions 1To / 2To / 4To / 8 To
A comparer avec la gamme EVO
150 /300 /600 /1200 / 2400 TBW pour les versions 256Go / 500Go / 1To / 2To / 4To
On comprend de suite qu'en version QVO il faut se diriger vers les très grandes capacités et que l'on ne voit pas des SSD en QVL (ou QVO Chez Samsung) en 256 Go ou moins
Même si biaisé (comparer EVO et QVO), c'est juste pour mettre en avant qu'il y a des données "connues" des utilisateurs (Encore que certains regardent juste le prix) , et qu'en tant que consommateur, déjà si je choisis de la MLC au lieu de la TLC c'est que j'ai mes raisons (bonnes ou mauvaises) et que pour certains SSD je préfère un bon vieux Marvell que certains Physon ou Silicon Motion dont je ne sais rien sur la durée (outre les changements de performances) , si cela tiendra ou pas, car il est bien connu que ce ne sont pas les puces dont le TBW est indicatif (ex au hasard https://www.papergeek.fr/ssd-duree-de-v ... teur-56798 ) qui lâche en premier mais le contrôleur
Changer la mémoire flash NAND, qui peut avoir un impact important sur les performances, est devenu une pratique courante mais discutable dans
l'industrie des SSD.
Maintenant, cette tendance s'est transformée en un modèle plus inquiétant : certains fabricants de SSD modifient désormais en silence le contrôleur SSD, ce qui a des implications encore plus larges.
Il n'y a pas encore si longtemps, les modèles proposés avec une référence précise, et vendus ne subissaient QUE des améliorations au fil du temps
Au plus loin on se rappelle du M4 qui avait gagné 20% de perfs avec une maj du firmware, ou plus récemment avec le WD Black SN750 (mais ils en ont profité pour le renommer)
Maintenant on ne s'embête plus, on ne fait plus dans l'optimisation logicielle qui nécessite une équipe, mais on mixe diverses solutions matérielles pour réduire les coûts (qui ne se répercutent pas obligatoirement sur le client en prix de vente) en espérant garder les mêmes spécifications (du moins celles qui concernent les écritures séquentielles) et en faisant rédiger les notices de présentations par des cabinets d'avocats afin d'éviter les procès
Les termes les plus usités sont : "jusqu'à " (pour les performances) et "en fonction de" (pour la config matérielle, etc), comme cela personne ne peut se plaindre
La crise COVID a bon dos (d'autant plus que certains sont fabricants de leurs propres puces) et ce qui est mis en avant, c'est que ces changements sont parfois aussi " forcés" en fonction de la disponibilité de tel ou tel composant (ce qui est vrai)
Néanmoins le but est véritablement de réduire les coûts, augmenter les marges, et le tout au détriment du consommateur
Du reste il va falloir s'attendre à une augmentation de 10 à 20% du prix des composants dans les mois à venir (même pour ceux qui fabriquent le tout comme SAMSUNG)
EN PLUS :
Il ne faut pas croire que cela n'affecte QUE les SSD, c'est la même chose pour divers appareils ou composant, et... Ce n'est pas récent
Ex du Samsung SyncMaster 226BW, dont les tests étaient élogieux (en 2007)
Au début c'était une dalle SAMSUNG (trè bonne, réactive, calibrée) livrée à la presse mondiale, et ensuite ce qui a été livré
- AU-Optronics (moins bon)
- Chi-Mei (encore moins bon)
- CMO (la pire avec une fausseté des couleurs, impossible à régler, de la rémanence, ...)
- CPT (pareil)
Idem avec les cartes mères
Au fil du temps on vire des composants (dont le nombre de VRM) où on y colle des composants de moindre qualité de provenance Chinoise (ou le très bon peut cotoyer le pire, mais là on parle du pire), où on vire des fonctionnalités
Le truc c'est que RIEN ne l'indique. Le modèle et version ne changent pas
A l'usage les gens ont des plantages etc qu ils ne comprennent pas (usage de Ram performantes plus adaptées, moindre refroidissement, vieillissement prématuré des composants etc
Moralité : Lorsqu'une carte mère vient de sortir et est testée il vaut mieux l'acheter que d'attendre X mois ou an
Sources diverses :
https://www.extremetech.com/computing/3 ... -slow-ssds
https://www.computerbase.de/2021-08/970 ... enten-aus/
https://www.computerbase.de/2021-08/wd- ... hreibrate/
https://www.tomshardware.com/features/c ... -downgrade
https://www.comptoir-hardware.com/ (divers articles recoupés avec les sources)
https://www.reddit.com/user/NewMaxx/
Les constructeurs de SSD changent les composants, et pas que les puces mémoires entre les premières versions (souvent testées dans divers medias) et les versions mise sur le marché ensuite
En mode lecture, le plus souvent, cela ne change pas grand chose, mais en mode écriture avec une grande quantité de données cela peut être catastrophique (lié à l'usage en fait)
Idem pour l'endurance (même si ...)
Le soucis est surtout liée à l'information et où le client est trompé (perso je ne prend jamais un SSD en QLC qui va me servir de disque de boot)
C'est un site Chinois qui dénonce l'arnaque (C'est le monde à l'envers :-) https://www.expreview.com/80127.html même si ce n'est pas nouveau, que WESTERN DIGITAL n'est pas le seul à pratiquer, et que surtout cela ne touche pas que le monde des SSD (Depuis des années on peut le voir également pour les dalles de TV, etc et ce n'est rarement au bénéfice des acheteurs)
---------
WESTERN DIGITAL
Exemple du SSD WESTERN DIGITAL BLUE DISK modèle SN550
Il s'agit d'un modèle bon marché sans mémoire cache DRAM.
Pour compenser les lenteurs d'écriture des puces TLC (3 bits de données par cellule), une partie de la mémoire flash fonctionne comme un
cache en mode SLC (1 bit par cellule), nettement plus rapide. Le cache maximum est de 12 Go
Initialement ce SSD à une vitesse de lecture continue de 2400 MB/s et une vitesse d'écriture de 1950 MB/s.
Bien que son cache SLC ne soit pas volumineux, il peut toujours maintenir une vitesse d'écriture élevée une fois le cache (12GB) SLC épuisé.
Le SanDisk Extreme 1 To, qui est le même modèle que le Western Digital SN550, (Sandisk appartient à Western Digital ) a toujours une vitesse d'écriture de 849 MB/s après épuisement
du cache SLC.
La nouvelle version du SN550 a été remplacée par une nouvelle mémoire flash (002031 1T00 contre 60523 1T00 précédemment) et le numéro du
firmware a également changé.
Ces nouveaux SN550 ne proposent que la moitié de la vitesse d'origine une fois le cache SLC épuisé, ce qui est presque le même niveau que le
Western Digital WD Green SN350 960GB, mais qui est vendu presque...50% moins cher
Le WD Blue SN550 à 1 To était encore vendu récemment autour de 150 euros (et pas la première version) alors que la version WD green SN350 sortie en février était initialement à 85 euros
Depuis quelques temps on ne trouve plus de SN350 à 1To et la version SN550 est trouvable autour de 80 à 85 euros.. Curieux non ? :-)
En mode lecture cela ne change pas, mais en mode écriture on passe donc à 390 MB/s une fois le cache épuisé, c'est à dire pratiquement la
même vitesse que le modèle SN350 qui plafonne à 376 MB/s
Comparaison des numéros de mémoire flash et firmware
Le numéro de mémoire flash sur ce nouveau SN550 est devenu 002031 1T00, le numéro de version du micrologiciel est 233010WD et la mémoire
flash utilisée dans l'ancienne version est 60523 1T00
Le numéro de firmware est 211070WD
On peut voir que la mémoire flash et le firmware ont étés modifié, mais le contrôle principal est toujours le SanDisk 20-82-01008-A1 d'origine.
Ce qui est intéressant, c'est que le numéro de firmware du Western Digital Green Disk SN350 commence également par 23, mais le modèle de
mémoire flash utilisé est différent du nouveau SN550.
Du point de vue du constructeur, Utiliser plus de 12 GO de cache, reste accessoire pour une majorité de gens, SAUF pour ceux qui font par ex
du montage video, ou écrivent de grandes quantités de données
Le soucis est que WD n'a pas prévenu les consommateurs,
Ce n'est pas la première fois que WD trompe son monde. Il faut se rappeler l'affaire des disque durs vendus pour des NAS, en technologie SMR
(donc inadaptée) et pour laquelle WD a été poursuivi
Sont ils les seuls à agir de même ? Malheureusement NON
Chez SAMSUNG :
Source https://www.tomshardware.fr/quand-samsu ... leurs-ssd/
Chez SAMSUNG ce n'est pas complètement négatif, puisque le 970 EVO PLUS hérite du contrôleur du 980 Pro (Elpis au lieu du Phoenix), avec un plus gros cache SLC (115 Go contre 45).
Par contre une fois le cache épuisé, on passe à 800 MB/s contre 1 500 MB/S pour le 980 pro
Dans les changements de versions, mais que contrairement à WD, SAMSUNG indique, du SSD 970 Evo Plus, on retrouve toujours de la NAND 3D TLC à
96 couches, de la DRAM LPDDR4, mais on passe d'un contrôleur Phoenix à un contrôleur ELPIS (qui est celui du 980 Pro)
Pour résumer SAMSUNG a effectué un changement de contrôleur et a changé la taille du cache pseudo SLC)
Par contre, de mémoire, Samsung avait introduit un système de sécurité (je ne sais sur quelle gamme de NVMe) pour éviter que ses NVMe dépassent 65°C (puisque la plage de fonctionnement est de 0 à 70°c) afin d'éviter le throttling constaté
C'est pour cela que les perfs n'étaient pas l'identique (en baisse donc) sur les premiers tests des revues/sites, et les utilisateurs dès lors qu'on s'approchait des 65°C.
On perd juste un peu de vitesse dans les débits
Par contre petite histoire dont on attend les explications, c'est la disparition du nom du contrôleur sur la fiche technique pour le 980 PRO et ce bien avant celle du 970 EVO Plus
Cela laisse présager là aussi le swap
Chez CRUCIAL
Le SSD BX500 emploie la technologie TLC et le SSD MX500 est devenu le premier disque Crucial basé sur le TLC NAND 3D 64 couches de Micron.
Seulement avec les séries BX500/MX500 on a eu droit au fil du temps, a du SILICON MOTION SMI2258(XT) qui est devenu SMI2259(XT) - qui est plus cheap - à la place des bons vieux Marvell comme sur les MX300, et de la NAND TLC 96L
Soit :
MX500 = SM2258
BX500 = SM2258
BX500 1 To = SM2259XT (Le pire)
Nombre de personnes ont eu des problèmes de chauffe, des pertes brutales de performance, des gels (freeze et micro freeze), des BSOD et.. des SSD morts (la mort d'un SSD est souvent le fait du controleur, et très très rarement des puces mémoires)
Sans compter le reste https://www.touslesdrivers.com/index.ph ... _code=7905
C'est la même chose avec les SSD P2 NVMe M.2, livrés initialement avec de la TLC et qui se retrouvent avec de la QLC moins chère, plus lente
et moins endurante
A la base c'est du bas de gamme pas performant, mais là c'est encore pire
En tests réels on se retrouve avec du 40 Mbps, c'est à dire un taux de transfert digne de l'USB 2.0 et plus lent qu'un disque dur
Crucial a effectué le changement sans modifier le nom ou le numéro du produit ni publier d'annonce.
Pire, au moment où ce NVMe était vendu, CRUCIAL à livre et publié des spécifications inférieures pour les lecteurs TLC d'origine à ce qu'ils
étaient capables d'atteindre, c'est à dire.. celles de la QLC
C'est donc qu'ils savaient qu'ils allaient passer ensuite à de la QLC, pendant que tout le monde s'extasiait sur les performances de la TLC
de base qui démontraient que ce modèle était plus rapide que ce qu'il était indiqué sur le papier
J'appelle cela de la malhonnête, et de la fraude
Et ne croyez pas que MICRON et sa marque CRUCIAL a souffert de la crise COVID
"Micron, qui commercialise la marque Crucial auprès des consommateurs, a déclaré un chiffre d'affaires de 7,42 milliards de dollars au
dernier trimestre, contre 5,4 milliards de dollars il y a un an. La l'entreprise est marge brute de passée de 33 % à 42 %. Son résultat d'exploitation est passé de 981 milliards de dollars au troisième trimestre 2020 de son trimestre fiscal à 1,799 milliard de dollars au troisième trimestre fiscal 2021. Pour célébrer cette formidable croissance, Micron a annoncé un dividende en espèces trimestriel , affirmant : « L'introduction d'un dividende en actions ordinaires reflète notre confiance dans l'avenir de Micron. et notre engagement à créer une valeur attrayante pour les actionnaires."
Voila tout est dit. La priorité est l'actionnaire pas le client
Edit du 01/10/2021
CRUCIAL vient de sortir la version 4To du MX500
Le soucis c'est que ce MX500 n'a rien à voir avec la version de 2017
Si l'on va sur le site, on ne dispose que des caractéristiques communes
https://www.crucial.fr/ssd/mx500/ct4000 ... ct20730120
Certains testeurs ont eu une fiche technique et descriptif
Le soucis
Alors oui on a bien de la NAND TLC 3D mais CRUCIAL n'a pas indiqué le nombre de couches (Sur les autres versions MX c'était géré par un SM2258 de Silicon Motion et de la 3D-TLC-NAND de la génération 64 couches de la société mère Micron)
Sur la photo on ne le voit pas mais il y a quatre packages NAND d'installés (2 par face) mais chacun possède 16 matrices de 512 Gbit chacune, ce qui signifie quatre fois la capacité de stockage de 1 To par package, donc 4 To au total.
MAIS ! Comme on peut le voir sur la photo, ce SSD n'utilise pas le SM2258, mais le SM2259, comme ce fut le cas avec la nouvelle édition du MX500 avec 1 To .
La fiche technnique n'est donc pas à jour
Le PDF de MICRON sur le SM2259 https://www.siliconmotion.com/download/ ... 201910.pdf indique que le contrôleur 4 canaux de Silicon Motion ne supporte en fait qu'un maximum de 32 puces (8 CE par canal). Cependant, dans ce cas, il y en a 64, soit deux fois plus de jetons (dies).
Interrogé à ce sujet, Crucial a expliqué que les 64 matrices peuvent toujours être adressées par le contrôleur à l'aide du "Mode d'entrelacement à 4 voies" et que les performances devraient être au niveau du modèles 2To
Est- ce que le contrôleur peut réellement gérer les 64 puces de mémoire ?
Si Micron utilisait son propre QLC-NAND avec 1 024 Gbit au lieu de la TLC-NAND avec 512 Gbit, la limite de 32 puces pourrait également être maintenue. Mais la QLC-NAND est plus lente et moins durable.
La décision de conserver TLC-NAND est initialement louable, mais il reste à voir avec quelle efficacité le contrôleur peut réellement gérer les 64 puces de mémoire.
Les éditeurs ne connaissent aucun autre SSD avec un contrôleur SM2259 et 4 To d'espace de stockage.
Pour rappel : Sur la nouvelle génération de MX500 1 To ("M3CR033") on a vu apparaitre le Silicon Motion SM2259H avec de la 3D NAND à 96 couches
https://www.computerbase.de/2021-04/cru ... r033-test/
Autre problème :
- - Le cache DRAM ne contient que 512 Mo, soit 1/8 de ce qui serait standard pour un SSD de 4 To.
Il reste à clarifier si cela a un impact significatif sur les performances (sur les autres générations de MX500 c'était 1 024 Mo de DDR3-1866 (2 × 512 Mo)
Le soucis avec le SM2259 c'est qu'il ne peut en principe pas gérer 4 Go de DRAM (mais il y a une marge entre 512 et 4 Go)
Ce qui est inquiétant c'est qu'on se dirige vers des SSD réalisés à l'économie et il est fort possible que cette histoire de réduction de DRAM préfigure de nouvelles séries de SSD
Crucial admet que cela entraîne une perte de performances sur certaines charges de travail et que la décision a bien été prise en fonction des coûts.
Donc visiblement on est dans le cas de figure du QVO de SAMSUNG : Ne pas l'utiliser en disque de boot, ou alors pour de la bureautique légère (A exclure donc pour les utilisateurs de P2P dont personne ne parle dans les tests, qui vont réduire la durée de vie à peau de chagrin)
Par contre il sera utile en disque secondaire pour stocker vos photos, films...ou pour une collection de jeux steam
Les SSD NVMe sans leur propre cache DRAM ont montré que même quelques Mo de mémoire système réservés par "Host Memory Buffer" (HMB) sont suffisants en remplacement de la DRAM pour éviter une baisse des performances. Le 980 (sans Pro) de Samsung , par exemple, n'utilise que 64 Mo de RAM système en tant que HMB et ne présente donc aucune faiblesse. Cependant, les SSD SATA n'ont pas la fonction HMB NVMe, donc au moins une petite puce DRAM dédiée doit être installée.
S'il n'y a ni (petit) cache DRAM dédié ni support HMB, il y a un risque de panne du système, comme ce fut le cas avec le Toshiba TR200
https://www.computerbase.de/2017-11/tos ... -ssd-test/
Pour le reste, si on regarde la concurrence, le SAMSUNG 870 EVO 4 To est plus de deux fois plus endurant que ce modèle de chez CRUCIAL, meme si on terme de prix on devrait plutot le rapprocher du QVO
Néanmoins il faut être prudent sur ces histoires d'endurance, car on ne peut pas comparer non seulement entre les marques, mais également les modèles et pire encore si le produit à subi une évolution dans la gamme (puces/couches, contrôleur, ...)
Ensuite il y a le bas de gamme et le haut de gamme (On peut avoir les memes puces, mais des contrôleurs différents sans compter la qualité de l'électronique etc) Les histoires de caches également ont un impact
En plus il faut prendre les déclarations d'endurance des constructeurs avec des pincettes
- - Les performances théoriques ne sont pas au top non plus (il faut attendre les vrais tests)
- - La garantie est cependant de 5 ans (si on arrive à la faire jouer car ce n'est pas simple chez Crucial)
Concernant le prix (ce jour) : Il est affiché à 364,79 € T.T.C chez Crucial.fr, MAIS
- chez LDLC on le trouve à 449.95 euros
- Idem chez Materiel.net (normal c'est la meme sté)
Là, qu'on ne vienne pas me parler de la hausse du prix des composants, parce qu'on est quand même à 85 euros de différence( oui pas de stocks, les quantités commandées bla bla bla etc n'empêche que...)
Dans les 3 cas il faut ajouter les frais de port
- Sur Amazon au plus bas on le trouve à : 363.99 euros
Source https://www.computerbase.de/2021-09/cru ... cherplatz/
Et chez les autres ?
C'est pareil
Chez A-DATA avec par exemple le modèle PG SX8200 Pro
A data a modifié son SSD qui a subi une réduction de 41% des performances de copie de fichiers et une baisse de 500 Mbps des charges de travail légères après les modifications.
En fait, une révision ne peut même pas répondre à la spécification nominale de 3 500/3 000 Mbps, sans parler des performances aléatoires 4K
nominales, comme les autres révisions.
A DATA a changé le contrôleur, celui ci est passé du SMI SM2262ENG (le plus performant) au contrôleur SMI SM2262G, de firmware, et de NAND
qui d'origine était de la TLC IMFT 64L en TLC 96L de chez MICRON
A noter que le SM2262ENG était livré avec le contrôleur cadencé à 650 MHz avec une vitesse d'interface de la flash de 650 MTps
Cela pouvait introduire de la chauffe, et réduire la durée de vie, mais les performances étaient là
Dans une troisième mouture, A DATA est redescendu à ...575Mhz et a encore changé de NAND en passant à de la flash TLC B27B 96L de Micron,à de
la SAMSUNG 64L TLC tout en conservant le contrôleur Silicon Motion SM2262G, mais surtout en abaissant la vitesse de l'interface Flash de 650 MTps à .. 525 MTps
A cela on y ajoute le cache SLC qui passe de 160Go à ... 12 Go
Dans les tests en mode réel, cette version V3 voit les performances diminuer globalement de 10 à 12% (applications quotidiennes) mais a pris
un retard supplémentaire de 36 % à 41 % lors des tests de copie ou de grosses charges
Par contre, il est de 1 à 2 % plus rapide lors de la relecture des gros fichiers de test.
Sur des machines de type station de travail et un benchmark approprié, la V1 était un poil supérieure globalement en terme de performances par rapport au Samsung 970 EVO Plus
Avec la V3, sur le même test, le modèle de A DATA accuse un retard de 2 minutes (pour les utilisateurs qui font un usage pro c'est important)
Chez ADATA tout cela a été fait sans informer les consommateurs
Les fiches techniques de la société indiquent simplement que le lecteur est livré avec un contrôleur « SMI » et ne répertorie pas le numéro de modèle du contrôleur SSD réel.
Adata indique que toute modification apportée au contrôleur devrait toujours permettre au SSD de fonctionner conformément aux spécifications,
et que le changement visait en fait à prolonger la longévité du SSD. Cependant, la société n'a pas modifié la garantie ou les cotes d'endurance pour refléter le changement.
Adata évalue le XPG SX8200 Pro pour offrir des performances de transfert séquentiel allant jusqu'à 3,5/3,0 Go/s en lecture/écriture et pour
supporter jusqu'à 390 000/380 000 IOPS en lecture/écriture aléatoires. Bien sûr, selon le site Web d'Adata, ces évaluations "peuvent varier
en fonction de la capacité du SSD, du matériel et des logiciels de l'hôte, du système d'exploitation et d'autres variables système".
MAIS ce n'est pas la première fois que A-DATA procède ainsi
La série XPG SX8100 est aussi concernée
Le modèle 4 To n'est plus équipé de NAND TLC comme le suggèrent les référencements chez certains revendeurs (où du reste la mention de "3D NAND TLC " a été ensuite remplacée par « 3D NAND)
En effet la NAND TLC a été remplacée par ... de la NAND QLC 96L de chez Micron
En plus A DATA indique toujours une endurance de 2560 To, ce qui optimiste pour de la QLC
Samsung arrive à peine à 1440 To pour son 870 QVO 4 To en SATA, d'autant plus lorsque l'on sait que les SSD NVMe MP400 4 To de Corsair et Rocket Q 4 To de Sabrent affichent une endurance de seulement 800 et 940 To respectivement mais avec un contrôleur Phison, alors qu'ils exploitent eux aussi cette NAND 3D QLC 96L de Micron.
Bref, on fait du mensonge par omission, on joue sur les mots
On pourrait continuer sur les autres marques comme
KINGSTON
avec le V300, A 400 et son contrôleur minable, le Phison S11, que l'on retrouve dans l'entrée de gamme des SSD Toshiba / Palit / Patriot / Kingston (Ils ont jonglé entre le Phison S11 et le SandForce SF-2281)
Donc se souvient des séries" Kingston A400 - 240Go format SATA" qui n'étaient plus reconnus au bout d'un certain temps sauf comme "SATAFIRM S11" . La faute au fameux contrôleur Phison S11 qui lâchait
De ce fait les données devenaient illisibles
Le même était utilisé dans les Toshiba TR200, Palit UVS line, Patriot Spark
Sans compter que les V300 se sont retrouvés ensuite avec un type de mémoire, qui est de type Toggle/ONFI synchrone pour les premieres moutures, mais asynchrone dans les modèles qui ont suivi.
La mémoire asynchrone grève grandement les débits séquentiels des SSD,
On avait 459 Mo /s en lecture et 141 Mo /s en écriture lors du lancement, mais les modèles vendus actuellement passent à 185 Mo /s et 94 Mo /s
En plus les fiches techniques sont trompeuses car les tests ne font pas état du fait du modèle de controleur SandForce, que celui ci intégre un algorithme de compression en temps réel, basique
Cela trompe les programmes de tests
Ceux ci annoncent par ex des débits de 540 Mo /s en lecture et 490 Mo /s en écriture.
Seul problème, en pratique on en est bien loin et OCZ qui dispose d'un modèle similaire, l'Agility 3, annonce pour sa part 525/475 Mo /s dans ce cas mais aussi 180 Mo /s en lecture et 65 Mo /s en écriture lorsque l'algorithme n'est pas/plus fonctionnel, ce qui change tout
D'autres modèles sont à éviter comme le modèle NVMe Kingston A1000 (considéré comme le bas de gamme) et son contrôleur Phison E8 (Phison PS5008-E8 avec 2 lignes PCIe Gen3 que l'on retrouve également dans le bas de gamme PNY )
Phison avait deux solutions Le PS5008-E8T qui est une conception sans DRAM et qui utilise la technologie Host Memory Buffer (HMB) pour mettre en cache la carte d'adresses physique-logique dans la mémoire de votre système
Il est décrit comme une option très économique pour les constructeurs de systèmes (vise les OEM donc un PC vendu avec un Kingston de ce modèle est suspect en terme de performances. Le soucis, c'est que le "T" à la fin du E8 n'est jamais indiqué
L'autre est le PS5008-E8 qui est le modèle grand public de la série E8. Ce contrôleur augmente les performances en utilisant la DRAM locale sur le SSD. Avec la mémoire DRAM plus proche du contrôleur, le saut de latence est inférieur à celui d'atteindre la mémoire système via le bus PCI Express.
La conception x2 (les lignes) réduit la complexité de la R&D et est moins chère à fabriquer.
Les SSD "normaux" utilisent une connexion x4, mais dans ce cas, deux des voies sont désactivées. Cela permet aux ordinateurs portables de désactiver deux voies PCI Express et le matériel qui leur est associé, comme les commutateurs PCIe.
Cela réduit la consommation d'énergie globale du système.
Le truc c est qu'il n'est pas indiqué que ces SSD NVMe sont principalement à destination des ordis portables
On peut les retrouver lors des soldes sur certains sites de vente connus par des revendeurs tiers
Même chose pour le A2000 (à ne pas confondre avec le KC2000 qui est le haut de gamme de la marque tout comme le KC3000 avec Phison E18 ) où là on a eu droit à la valse des contrôleurs sans que le client en soit informé (Silicon Motion SM2263-series et Phison PS5008-E8)
Ex avec un 120 Go V300 en nouvelle version mais c'est la même chose pour les capacités >
Pour les Sabrent, Corsair, Sandisk, etc Le problème est à l'identique
Juste une précision sur le SSD NVMe RENEGADE FURY
- Il faut savoir que les écritures ou lectures séquentielles, ou aléatoire, différent suivant les capacités et ne sont au max qu'a partir du 1 To mais surtout à partir du 2 To
Les testeurs ont reçu des modèles au mini de 1 To
Sur un 512Go par ex on n'aura en écriture que du 3 900Mbps max théorique (ca se situe plutot autour de 3 500Mbps en réel), alors que sur un 4to on sera à 7 000Mbps toujours en écriture
A cela on y ajoute les soucis de cache (taille inférieure sur les SSD de petite capacité) Sur la version de 1 To, au bout d'une minute en écriture intensive, la vitesse diminue de près de 50%)
C'est pour cela que certains se sont retrouves en 2000 Mbps soit une vitesse inférieure à du PCI-e 3 qui est à 2900 Mbps
Donc outre la taille, il y a un autre problème (voir plus bas)
Ensuite pour l'aspect marketing.. Kingston ment-il ? Et bien non
La cible sont les "gamers, à qui sous cette dénomination on en profite pour leur fourguer un peu de tout, et surtout à des prix largement plus élevés
Il est dit : Le SSD Kingston FURY Renegade est optimisé pour réduire les temps de chargement des jeux et des applications,
En jeux ce sont les vitesses de lecture qui sont plus importantes que les écritures
(même si ce sontles vitesses aléatoires – et non séquentielles – qui détermineront plus probablement la vitesse réelle d'un SSD)
De ce côté là.. Pas de soucis la tenue en lecture est bien présente quelque soit la capacité du SSD et donc kingston ne ment pas
A savoir :
Si on lit les caractéristiques, l 'E18 de Phison qui équipe ce SSD, est un contrôleur à huit canaux
Alors je ne sais pour tous les modèles, mais cela a été le cas pour d'autres modèles de la marque, et si les SSD "normaux" utilisent une connexion x4 ou x8, sur les versions OEM, à destination des ordinateurs portables, il a été vu que des voies (canaux) peuvent être désactivées.
Cela permet aux ordinateurs portables de désactiver deux voies PCI Express et le matériel qui leur est associé, comme les commutateurs PCIe.
Cela réduit la consommation d'énergie globale du système et surtout la chauffe qui impacte la vitesse et les données
Le truc c est qu'il n'est pas indiqué que ces SSD NVMe sont principalement à destination des ordis portables
On peut les retrouver lors des soldes sur certains sites de vente connus par des revendeurs tiers et là c'est la surprise sur les PC de bureau concernant les performances
Ce qui peut impacter sur la vitesse
Sur ce SSD il y a dissipateur thermique fin en aluminium augmenté d'une fine couche de graphène pour une conductivité thermique "optimisée", mais malgré cela il a été constaté lors de tests en écriture des pointes à 68°C (la température d'un SSD est de 0 à 70°c)
Donc pour des raisons de sécurité, le SSD va throttler, c'est à dire abaisser sa vitesse, etc afin de revenir à une température de fonctionnement sécuritaire
PATRIOT avec son Viper VPN 100
Le contrôleur PS5012-E12 a été remplacé par le PS5012-E12S, ce qui n'est pas négatif, la nouvelle puce étant plus petite et disposant d'un IHS en métal pour une meilleure dissipation
Cet E12S est venu avec un passage de BiCS3 (64L Toshiba/Kioxia TLC) à 96L IMFT (Intel/Micron) TLC qui ont des architectures différentes ( CTF vs FG) et qui impacte les profils d'endurance.
Elle nécessite aussi moins de DRAM pour son fonctionnement.
Sur le papier, ses performances sont même un peu meilleures que le PS5012-E12. Cette évolution a aussi accompagné le passage de la NAND 3D TLC 64L de chez Toshiba à la NAND 3D TLC 96L de chez Micron (moins bonne)
Le problème : "Au lieu des 2 Go de DRR4 SK Hynix du SSD testé en 2019, cet exemplaire acheté en 2021 n'a plus qu'une seule puce Kingston DDR3L de 512 Mo, l'emplacement au dos laissé vide (voir image ci dessus) — une quantité par ailleurs identique à celle du VPN100 1 To retesté en 2020 par Igor's Lab et qui en possédait pourtant bien 1 Go en 2019, ce qui veut dire que le changement a été fait depuis un p'tit moment.
On sait que la DRAM affecte les performances générales et l'endurance d'un SSD "
Source https://www.igorslab.de/en/patriot-vipe ... ifference/
PNY et son XLR8 CS3030
Initialement montés de NAND 3D TLC mais dont l'endurance suggère de la NAND QLC, ou de la NAND TLC moins bonne, voire même d'ancienne génération.
Le numéro de modèle est resté cependant inchangé (M280CS3030-250-RB)
La doc initiale faisait état de NAND 3D TLC, mais la nouvelle plus pudique indique juste NAND 3D
On peut voir sur ce tableau que l'endurance n'est plus la même
Ce n'est pas la première fois que PNY s'amuse à cela puisque la Sté avait fait la même chose avec ses SSD SATA CS900 en 2020, en échangeant la TLC d'origine pour de la QLC pour "des raisons d’approvisionnement" (mais toujours sans avertir les clients)
En plus le modèle initial est considéré comme le très bas de gamme de PNY, avec des puces d'anciennes génération mais surtout avec un contrôleur qui pose problème et qui est considéré comme le pire des controleurs : le Phison PS3111-S11
Il y a eu une révision depuis cependant mais il n'est pas implémentésur ce modèle de PNY
C'est ce contrôleur que l'on retrouve sur les SSD vendus sur Wish et Ali express sous des marques chinoises inconnues et que l'on retrouve sur les KINGSTON de petite capacité (128Go par ex)
Les gens ont au mieux des problèmes liés au SATA (erreurs de copie, erreurs E/S, des données, tables de partition, qui disparaissent) et au pire le SSD qui devient HS entre quelques heures et 6 mois ou un an, ou plus suivant usage/configuration de Windows, de ses paramètres, des applications utilisées, avec de forts ralentissements dont au démarrage du PC, de WIndows
Le fait de la mauvaise gestion de maintenance (il n'y a pas que le TRIM pour la maintenance du SSD) du fait du contrêleur n'arrangeant rien
En plus au niveau des performances vu le cache (il n'y a pas de puce DRAM) ridicule, vite rempli, il est de 4Go sur le modèle en 256 Go dont il faut espérer qu'il ne soit pas inférieur sur ce modèle en 120 Go) on arrive à des performances INFÉRIEURES à celles d'un disque dur en 5 400tr/m soit au mieux 70 Mo/s mais en réalité cela tourne entre 25 et 35 Mo/s
Seul le temps d'accès qui est commun à tous les SSD fait illusion
On pouvait encore le trouver autour de 15 euros il y a quelques temps.. Ca ne vaut pas plus
Perso, du fait du contrôleur je ne m'en servirai meme pas comme support externe en USB pour remplacer une clé USB (il n'est pas plus fiable qu'une clé USB)
SANDISK
Sandisk SSD Plus de 256Go (240Go)
A ne pas confondre avec les SANDISK séries Ultra PLUS - SDSSDHP et contrôleur Marvell 88SS9175 - Le même que chez Crucial avec son M4) couplé à de la mémoire MLC gravée en 19 nanomètres qui garantit au moins 3000 cycles de lecture/écriture
Sandisk et le modèle "plus" est considéré comme le bas de gamme de la marque.
Néanmoins les composants sont de bonne qualité mais c'est sur le contrôleur que Sandisk a fait des économies
En plus la puce n'intègre donc pas de contrôleur DRAM, pas de système de cache SLC (nCache).
Il est donc impératif avec ce SSD de laisser sur Windows, la mémoire cache activée, contrairement à ce que l'on voit dans certains tweaks proposés sur internet.
Sur de la mémoire MLC le cache va intercepter les données pour les rassembler, et ce SSD est équipé (à ce jour) "normalement" de MLC
Le soucis, c'est que ce produit a une nomenclature variable (BOM), ce qui signifie que le fournisseur peut (et modifie) les composants internes régulièrement sans changer le nom de la série de produits.
A sa sortie quelques utilisateurs finaux ont reçu des disques de référence SDSSDA-240G-G25 avec un contrôleur SM2246XT de Silicon Motion, Inc. (SMI) et une mémoire flash MLC gravée en 19nm
Mais des utilisateurs ont signalé que le SSD Plus était maintenant fourni sous la référence SDSSDA-240G-G26, avec un contrôleur SMI SM2256S et de la TLC NAND en 15nm
En version 480 Go de cette gamme plus, on est passé d' un controleur Marvell 88SS1074 a du Silicon Motion SM2256S (le même que pour le 120Go) ainsi que de la TLC 19 nm a de la TLC gravée en 15 nm
En revanche, la version de 960 Go diffère puisque ce modèle renferme un contrôleur SM2258XT dont la particularité est de gérer la mémoire TLC 2D et 3D.
Donc avec ces modèles il est impératif également d'utiliser les outils de SANDISK (pour le cache) si toujours équipé en MLC
Evidemment avait été mis le débit séquentiel en écriture, qui avait évolué dans le bon sens, pour par ex le 240Go qui passait à 440 Mo/s contre 350 Mo/s auparavant sans évoquer les soucis possible avec le cache
On pourrait aussi parler de la série Ultra II.
la version de 480 Go embarquait un contrôleur Marvell 88SS9189 et de la mémoire TLC 19 nm (8 puces).
Le produit porte la référence SDSSDHII-480G-G25 et est notamment donné pour un débit en écriture aléatoire pouvant grimper à 83 000 IOPS.
La version vendue ensuite porte la même référence, mais affiche un débit en écriture aléatoire de 80 000 IOPS.
À l'intérieur, on trouve un PCB de taille réduite qui abrite toujours de la mémoire TLC (4 puces), mais celle-ci est à priori en 15 nm tandis que le contrôleur est désormais un Marvell 88SS1074.
Chez SANDISK (pour rappel qui appartient à Western Digital) la valse des composants ce n'est pas nouveau. C'était déjà connu il y a 5 ou 6 ans avec leurs cartes SD et clés USB
Du reste on peut trouver nombre de SSD "No name" qui sont équipés de puces SanDisk 15nm TLC, pas réputées pour leur fiabilité ou SandDisk BICS 64L 3D TLC avec controleur silicon motion (c'est garanti jusqu'à 40 To d'écriture, mais cela peut faire plus. C'est le controleur qui lâche avant)
Et chez INTEL ?
INTEL est le seul,intérrogé par les journalistes d' Extrem Tech à avoir assuré qu'il n'a pas et n'a jamais modifié les composants d'un SSD déjà commercialisé.
Mais Intel se retire du marché des SSD (tout en y gardant un pied)
https://www.comptoir-hardware.com/actus ... gies-.html
https://www.extremetech.com/computing/3 ... e-same-sku
OU EST LE PROBLEME ?
Globalement, les performances de lecture et d'écriture séquentielles peuvent être conformes aux fiches techniques, MAIS (ce qui n'est JAMAIS
indiqué) les performances aléatoires et les vitesses d'écriture soutenues peuvent varier considérablement et avoir un impact important sur les performances réelles.
Idem sur la durée de vie suivant usage car la technologie employée à son mot à dire
Si on fait abstraction de tout ce qui précède et que l'on se réfère uniquement par ex aux SAMSUNG EVO et QVO..
On ne compte plus le nombre de SSD en fin de vie de type QVO, pour une simple raison : Les utilisateurs oublient de dire ou ne savent pas, que l'usage du P2P abusif va au fil du temps flinguer leur SSD, surtout qu'ils s'en servent également comme disque de boot pour l'OS, peuvent aussi faire du traitement vidéo (meme si en amateur, 2h de traitement/montage video monte a 200 go sans problème)
En TLC sur un disque de 256 Go qu’on aura déjà utilisé durant une durée de 5 années la garantie de durée avec l'écriture est de : 256 Go x 1000 cycles = 256 000 Go écrits et effacés, soit 140 Go de données par jour.
Donc en usage courant, la marge est plus que confortable (meme en usage intensif un usage familial tourne autour de 10 à 30 Go/jour)
Il faut cependant revoir cette valeur car les SSD écrivent le plus souvent plus de 1 Mo en mémoire lorsqu’ on demande ce Mo sur le SSD.
En fonction du type de donnée, de la place disponible dans le SSD et de la qualité de flash libre, le SSD écrira 1,5 à 2 Mo pour chaque méga requis. Ce qui revient à 70 Go de données par jour EN PLUS à écrire sur un SSD de 5 ans
Chez Samsung pour les derniers 870 QVO, l'endurance annoncée en écriture est de :
360 / 720 / 1 440 / 2 880 TBW pour les versions 1To / 2To / 4To / 8 To
A comparer avec la gamme EVO
150 /300 /600 /1200 / 2400 TBW pour les versions 256Go / 500Go / 1To / 2To / 4To
On comprend de suite qu'en version QVO il faut se diriger vers les très grandes capacités et que l'on ne voit pas des SSD en QVL (ou QVO Chez Samsung) en 256 Go ou moins
Même si biaisé (comparer EVO et QVO), c'est juste pour mettre en avant qu'il y a des données "connues" des utilisateurs (Encore que certains regardent juste le prix) , et qu'en tant que consommateur, déjà si je choisis de la MLC au lieu de la TLC c'est que j'ai mes raisons (bonnes ou mauvaises) et que pour certains SSD je préfère un bon vieux Marvell que certains Physon ou Silicon Motion dont je ne sais rien sur la durée (outre les changements de performances) , si cela tiendra ou pas, car il est bien connu que ce ne sont pas les puces dont le TBW est indicatif (ex au hasard https://www.papergeek.fr/ssd-duree-de-v ... teur-56798 ) qui lâche en premier mais le contrôleur
Changer la mémoire flash NAND, qui peut avoir un impact important sur les performances, est devenu une pratique courante mais discutable dans
l'industrie des SSD.
Maintenant, cette tendance s'est transformée en un modèle plus inquiétant : certains fabricants de SSD modifient désormais en silence le contrôleur SSD, ce qui a des implications encore plus larges.
Il n'y a pas encore si longtemps, les modèles proposés avec une référence précise, et vendus ne subissaient QUE des améliorations au fil du temps
Au plus loin on se rappelle du M4 qui avait gagné 20% de perfs avec une maj du firmware, ou plus récemment avec le WD Black SN750 (mais ils en ont profité pour le renommer)
Maintenant on ne s'embête plus, on ne fait plus dans l'optimisation logicielle qui nécessite une équipe, mais on mixe diverses solutions matérielles pour réduire les coûts (qui ne se répercutent pas obligatoirement sur le client en prix de vente) en espérant garder les mêmes spécifications (du moins celles qui concernent les écritures séquentielles) et en faisant rédiger les notices de présentations par des cabinets d'avocats afin d'éviter les procès
Les termes les plus usités sont : "jusqu'à " (pour les performances) et "en fonction de" (pour la config matérielle, etc), comme cela personne ne peut se plaindre
La crise COVID a bon dos (d'autant plus que certains sont fabricants de leurs propres puces) et ce qui est mis en avant, c'est que ces changements sont parfois aussi " forcés" en fonction de la disponibilité de tel ou tel composant (ce qui est vrai)
Néanmoins le but est véritablement de réduire les coûts, augmenter les marges, et le tout au détriment du consommateur
Du reste il va falloir s'attendre à une augmentation de 10 à 20% du prix des composants dans les mois à venir (même pour ceux qui fabriquent le tout comme SAMSUNG)
EN PLUS :
Il ne faut pas croire que cela n'affecte QUE les SSD, c'est la même chose pour divers appareils ou composant, et... Ce n'est pas récent
Ex du Samsung SyncMaster 226BW, dont les tests étaient élogieux (en 2007)
Au début c'était une dalle SAMSUNG (trè bonne, réactive, calibrée) livrée à la presse mondiale, et ensuite ce qui a été livré
- AU-Optronics (moins bon)
- Chi-Mei (encore moins bon)
- CMO (la pire avec une fausseté des couleurs, impossible à régler, de la rémanence, ...)
- CPT (pareil)
Idem avec les cartes mères
Au fil du temps on vire des composants (dont le nombre de VRM) où on y colle des composants de moindre qualité de provenance Chinoise (ou le très bon peut cotoyer le pire, mais là on parle du pire), où on vire des fonctionnalités
Le truc c'est que RIEN ne l'indique. Le modèle et version ne changent pas
A l'usage les gens ont des plantages etc qu ils ne comprennent pas (usage de Ram performantes plus adaptées, moindre refroidissement, vieillissement prématuré des composants etc
Moralité : Lorsqu'une carte mère vient de sortir et est testée il vaut mieux l'acheter que d'attendre X mois ou an
Sources diverses :
https://www.extremetech.com/computing/3 ... -slow-ssds
https://www.computerbase.de/2021-08/970 ... enten-aus/
https://www.computerbase.de/2021-08/wd- ... hreibrate/
https://www.tomshardware.com/features/c ... -downgrade
https://www.comptoir-hardware.com/ (divers articles recoupés avec les sources)
https://www.reddit.com/user/NewMaxx/
Vous ne pouvez pas consulter les pièces jointes insérées à ce message.
- Only Amiga... Was possible ! Lien https://forum.malekal.com/viewtopic.php?t=60830
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- Messages : 19570
- Inscription : 02 juin 2012 20:48
- Localisation : Thomas Anderson : Je suis dans et en dehors de la matrice :-)
SSD et endurance
Je ne vais pas réinventer la roue donc
ENDURANCE DES SSD avec l'impact du type de NAND, du contrôleur, des technologies implantées, ...
Explications et fonctionnement
Partie 1
https://www.comptoir-hardware.com/actus ... tie-1.html
Partie 2
https://www.comptoir-hardware.com/actus ... nddemayrde
ENDURANCE DES SSD avec l'impact du type de NAND, du contrôleur, des technologies implantées, ...
Explications et fonctionnement
Partie 1
https://www.comptoir-hardware.com/actus ... tie-1.html
Partie 2
https://www.comptoir-hardware.com/actus ... nddemayrde
Vous ne pouvez pas consulter les pièces jointes insérées à ce message.
- Only Amiga... Was possible ! Lien https://forum.malekal.com/viewtopic.php?t=60830
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- Messages : 19570
- Inscription : 02 juin 2012 20:48
- Localisation : Thomas Anderson : Je suis dans et en dehors de la matrice :-)
Re: TUTO Insider ++ la protection efficace contre les ransomwares ?
SSD Insider ++ la protection efficace contre les ransomwares ?
Des chercheurs en sécurité de Corée du Sud (Inha University, Daegu Institute of Science and Technology et du département de sécurité cyber de l'université Ewha Womans) ainsi que de l'université de Floride Centrale ont exploré une approche de défense originale.
Ces derniers travaillent en effet sur une technique de protection ET de récupération des données compromises qu'ils ont appelée SSD-Insider++.
« SSD-Insider++ est intégré au contrôleur SSD sous forme de micrologiciel. En étant séparé d'une machine hôte, il apporte non seulement une protection des données plus robuste que celles basées sur des logiciels qui sont vulnérables aux attaques évasives, mais propose également une interopérabilité avec diverses plateformes »,
Ce que l'on peut lire dans le résumé de la recherche.
Résumé de recherche
https://www.computer.org/csdl/journal/t ... lFF1xnRD44
ou
https://www.researchgate.net/publicatio ... a_Recovery
Cette trouvaille est composée de deux fonctions:
La détection des ransomwares et la récupération exacte des données, qui sont étroitement intégrées les unes aux autres. L'algorithme de détection observe les modèles d'E/S d'un système hôte et décide si l'hôte est attaqué par des ransomwares à un stade précoce.
Une fois qu'une attaque de chiffrement est détectée, l'activité du SSD est suspendue pour éviter la propagation du ransomware.
A ce moment là, l'algorithme de récupération est déclenché pour rétablir les fichiers d'origine en tirant parti de la fonction d'effacement retardé de la mémoire.
« Nos résultats expérimentaux montrent que SSD-Insider++ atteint une grande précision de détection des ransomwares avec 100% dans la plupart des cas (Wannacry, Mole,...) et fournit une récupération de données instantanée avec 0% de perte de données »,
Ils ajoutent que les attaques sont contenues dans les 10 secondes après la détection
Point intéressant, SSD-Insider++ n’augmente la latence que de 12.8 à 17,3 %, tout au plus, tandis la réduction de débit n’excède pas 8 %.
Cette solution micrologicielle particulière est déployable sur tous les disques SSD actuels.
Néanmoins, d’autres améliorations apportées aux technologies de protection contre les ransomwares peuvent obliger les fabricants à améliorer les performances du contrôleur. Armer un processeur ou des accélérateurs matériels serait par exemple nécessaire.
Cependant, les SSD sont actuellement en train d’intégrer des accélérateurs matériels plus puissants (et plus variés) tels que les FPGA, les NPU et les moteurs de traitement de chiffrement.
Les chercheurs s’attendent donc à ce que des mécanismes de protection plus complexes accompagnent l’écosystème SSD en développement.
La solution de firmware est également théoriquement déployable sur les disques durs SMR (Shingled Magnetic Recording), mais pour l’heure, il n’a pas été testé dans cet environnement.
Vous ne pouvez pas consulter les pièces jointes insérées à ce message.
- Only Amiga... Was possible ! Lien https://forum.malekal.com/viewtopic.php?t=60830
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- Messages : 19570
- Inscription : 02 juin 2012 20:48
- Localisation : Thomas Anderson : Je suis dans et en dehors de la matrice :-)
Défragmenter son SSD
DEFRAGMENTATION DES SSD
Pour les disques durs se référer à cet article :
viewtopic.php?p=531541
IMPORTANT : Tout comme sur les disques dur, pour que la maintenance s'effectue, il est impératif de disposer au minima de 10% de place libre (défragmentation par ex) mais idéalement de 15 à 20%
Sur un SSD les fonctions de maintenance TRIM, Garbage collector, ... ne pourront s'exécuter, ou du moins cela n'aura pas grand effet (effet partiel)
Sur un SSD ce seront sinon les toujours mêmes cellules qui seront effacées/écrites majoritairement, ce qui réduit leur durée de vie
C'est encore pire sur les SSD bas de gamme et surtout "Chinois" où il est impératif de créer une petite partition pour l'over-provisionning,
viewtopic.php?p=519922#p519922
Aux vues des interrogations des utilisateurs (justifiées) on peut légitimement se poser la question de ... la défragmentation d'un SSD
Même sur Windows 11, on peut voir apparaître des messages de type (où xxx représente l'unité de disque) une application "Microsoft windows defrag"
Le même soucis apparait sous Windows 10, une fois par mois (enfin un peu moins, tous les 28 jours en fait) avec certaines conditions (Services de restauration, sheduler actifs, ...)
Il s'agit d'une mauvaise traduction du moins il s'agit d'une traduction qui doit dater d'au moins une quinzaine d'années et qui n'a pas été actualisée en fonction du support SSD)
Sous windows 10 et 11, ce n'est pas une défragmentation. Le mot est donc trompeur
C'est une optimisation système. Windows 10 et 11 reconnaissent parfaitement un SSD (Windows 7 aussi) et cette optimisation consiste en .. une commande TRIM
On sait que depuis Windows 7, la commande TRIM, est supportée nativement (détails à la fin de cet article)
Cela a pour but "d'indiquer" (le terme est important) au contrôleur d'un SSD quels sont les blocs de données non utilisés, et donc ceux qu'il peut effacer.
Cela à un lien avec ce qu'on appelle, l amplification d'écriture, et cette commande évite au SSD de voir ses performances diminuer trop rapidement dans le temps.
Avec les anciennes générations de SSD ce n'était pas optimum, et il fallait procéder à un "erase" tous les X ans pour retrouver toute la vitesse de transfert du SSD
Erase ou Sanitize ? viewtopic.php?p=508078#p508078
Certains éditeurs de programmes proposent toujours des défragmenteurs (il y aurait beaucoup à dire sur le sujet) mais ils jouent sur les deux tableaux car c'est proposé à la fois pour les disques durs, et.. les SSD
Ces outils permettaient d'effectuer en une seule fois ce que fait le TRIM en temps réel mais il y a un lien avec la fragmentation et cela touchait les SSD avec un espace de stockage limité et où l'utilisation de la mémoire qui atteignait un niveau élevé
Parce que OUI un SSD peut se fragmenter, mais le lien est avec le système de fichiers NTFS (je ne parle pas des données)
Cela compensait un firmware non abouti, et ces outils décrits comme des "optimiseurs" permettaient de résoudre la fragmentation extrême et, d'autre part, empêchait les opérations d'écriture inutiles
Néanmoins il fallait que cette l'optimisation de SSD soit complétée par des commandes TRIM régulières.
Ils sont peut etre encore utile sur les SSD achetés sur Wish ou à très bas prix de constructeurs Chinois inconnus surtout dans des tailles de 128Go. Je ne sais et c'est à confirmer
O&O dit bien "résout et empêche la fragmentation extrême "
Defraggler fait la même chose : https://www.ccleaner.com/docs/defraggle ... r-and-ssds
Pour les autres https://www.malekal.com/meilleurs-logic ... on-disque/
Dans le cas présent :
https://www.oo-software.com/en/products/oodefrag
Au jour où je tapote, on en est à la version 29 mais dans la version 19 il était écrit :
______
"Le nouveau O & O Defrag19 apporte également un optimiseur SSD qui améliore la structure réelle d'un système de fichiers SSD. Depuis leur introduction, des discussions sont en cours pour savoir si les disques SSD peuvent être défragmentés ou non.
En théorie, il est à peine nécessaire, car ils fonctionnent si rapidement et que la durée de vie du lecteur est réduite au fur et à mesure des accès en écriture. Une défragmentation complète n’est ni nécessaire ni souhaitable. Cela a toujours été pris en compte avec O & O Defrag.
Malgré cela, les systèmes de fichiers SSD souffrent d'une fragmentation inhérente des données, tout comme un disque dur traditionnel. Cela peut être particulièrement élevé avec des modèles moins chers avec un espace de stockage limité et où l'utilisation de la mémoire a atteint un niveau élevé.
Cette fragmentation réduit les performances de lecture et d'écriture. Lorsque des fichiers très fragmentés sont réécrits, les performances de nivellement de l'usure sont également réduites.
Le système de fichiers NTFS atteint également rapidement ses limites de performances en cas de fragmentation extrême.
C'est pourquoi O & O Defrag 19 fournit désormais un optimiseur pour les disques SSD qui, d'une part, résout et empêche la fragmentation extrême et, d'autre part, empêche les opérations d'écriture inutiles et que l'optimisation SSD est complétée par des commandes TRIM régulières.
-----------------------------------
Effectivement, il s'agit bien d'une optimisation plus qu'une défragmentation, et qui consiste à remettre la commande TRIM à zéro
Microsoft parle d'une limitation du NTFS qui peut dans des cas très spécifiques poser des problèmes d'accès à des fichiers très fragmentés pour (très certainement) des fichiers très volumineux.
Pour compenser la chose, voir cet articule sur le site : https://www.malekal.com/fsutil-optimise ... _de_la_MFT
Cela n'est pas à confondre avec certaines "optimisations" que l'on retrouve sur des programmes... Payants ou gratuits, et qui sont des abérrations :
Ex : https://www.malekal.com/optimiser-accel ... moire_NTFS
Dans la fonction qui apparait sur ce lien on a l'impression que le terme n'est pas adapté car la description ne correspond pas à une augmentation des bufffers, (on peut le supposer sinon du fait de plantages il y aurait eu des retours et cela aurait été supprimé)
Cependant j'ai voulu en avoir le coeur net et après installation du programme de tweak, c'est la seule fonction qu'il m'est demandé d'activer et qu'il me reste à "optimiser" (terme fallacieux)
Je testerai en réel (pour voir ce qui est inscrit dans le registre ) pour voir si on parle bien de la même chose
A noter qu'il y a eu un arrêt de ce programme (on ne sait les raisons si ce n'est que la raison d'être de ces programmes étaient surtout pour le TRIM sous XP, puisque cela n'était pas géré (et parfois sous Win7 sous certaines conditions)
http://www.totalidea.com/products/tweak-ssd/index.php
le "large system cache"
La clé affectée :
Cela n'affectait que les systèmes en 32Bits et si on avait de l'AGP cela pouvait meme entrainer un arret complet de windows
Sur du 64bits. aucun effet si ce n'est les inconvénients décrits dans le lien assiste.com (risque de plantage par ex)
https://assiste.com/Cache_disque.html
Idem pour le IoPageLockLimit
Pourquoi "défragmenter"/optimiser quand même de temps en temps un SSD ?
Le problème c’est que le système de fichiers utilisé par Windows, le NTFS, n’a pas du tout été prévu pour être utilisé sur des SSD (qui n’existaient pas à l’époque)
Avec le NTFS, Windows va stocker pour chaque fichier une “table d’allocation” où seront répertoriés les différents “morceaux” du fichier.
Pour lire un fichier, il va donc lire cette table, puis lire les différents morceaux dans l’ordre.
Sauf que cette table, d’une part devient vite complexe à lire quand le nombre de fragments augmente, et d’autre part ne peut contenir qu’un nombre de fragments limité
Plus exactement, le NTFS va allouer une table de taille limitée contenant d’autres tables de tailles elles mêmes limitées pour y stocker les positions des fragments.
Si le fichier est peu fragmenté, il n’y aura donc qu’une seule table à consulter.
Si le fichier devient plus fragmenté, il faudra consulter plusieurs tables (c’est un petit peu plus long mais rarement perceptible). Et si le fichier devient vraiment très fragmenté, le nombre de tables peut carrément ne plus suffire
Pourquoi faut il défragmenter un SSD et pourquoi il ne faut pas
https://www.olivierhuet.fr/blog/2014120 ... est-utile/
Ce qu'on peut lire ailleurs
" L'optimiseur de stockage défragmentera un SSD une fois par mois si les instantanés de volume sont activés.
C'est par conception et nécessaire en raison de la lenteur de la copie Volsnap sur les performances d'écriture sur les volumes SSD fragmentés.
C'est aussi une idée fausse que la fragmentation n'est pas un problème sur les SSD.
Si un SSD est trop fragmenté, vous pouvez atteindre une fragmentation maximale des fichiers (lorsque les métadonnées ne peuvent plus représenter de fragments de fichiers), ce qui entraînera des erreurs lorsque vous essayez d'écrire/d'étendre un fichier. De plus, plus de fragments de fichiers signifient plus de métadonnées à traiter lors de la lecture/écriture d'un fichier, ce qui peut ralentir les performances."
Ce qu'il faut préciser : Quand il est dit instantanés de volume ou "volsnap", cela désigne le système de cliché instantané de volume sous Windows. Ceci est utilisé et activé par la restauration du système Windows lorsqu'elle prend un instantané de votre système et l'enregistre afin que vous puissiez revenir à un état précédent du système.
La commande Defrag ne fonctionnera donc sur votre SSD que SI volsnap est activé, et volsnap est activé par la restauration du système car l'un a besoin de l'autre.
Vous pouvez désactiver la restauration du système si vous le souhaitez, mais cela désactive une fonction considérée comme de sécurité assez importante pour Windows.
Cela avait déjà été constaté sous Windows 8.1 qu'en est il aujourd'hui ?
On ne sait pas. Malgré les rapports de bogues du temps de windwos 8, etc Microsoft n'a jamais répondu et le soucis existait encore dans les premières moutures de Windows 10
A la lecture de tout cela on comprend mieux que la fragmentation, même si le problème de performances est moindre sur les SSD par rapport aux disques durs traditionnels est toujours un problème :
Les SSD *peuvent* être fragmentés.
Seulement il ne faut pas raisonner en termes de disposition des fichiers sur l'unité de disque, comme sur les disques durs
il n'y a pas, volontairement, de stockage contigu (c'est-à-dire séquentiel) dans un SSD. Les bits sont éparpillés sur les matrices disponibles par le contrôleur de la manière qu'il juge la plus efficace.
Lorsqu'un disque dur est fragmenté, un fichier peut exister en plusieurs morceaux à différents emplacements sur un lecteur physique.
Ce lecteur physique doit ensuite chercher à collecter des éléments du fichier, ce qui prend plus de temps.
Ce type de fragmentation se produit toujours sur les SSD, même si leurs caractéristiques de performances sont très différentes car il ne faut pas oublier ce qui fait la force d'un SSD : Le temps d'accès
Donc dans la" position" des données cela n'a pas d'impact sur les performances, contrairement à un disque dur qui doit déplacer sa tête de lecture pour chaque cluster.
La seconde raison, c'est que l'agencement logique du SSD (le cluster 2 suit le cluster 1 et précède le cluster 3, etc.) n'est pas le même que l'agencement physique, géré par le contrôleur.
Le cluster 1 est peut-être sur la troisième puce de mémoire, le cluster 2 sur la première et le cluster 3 sur la huitième
Néanmoins, les métadonnées des systèmes de fichiers gardent une trace des fragments et ne peuvent en garder qu'un nombre limité.
La défragmentation dans des cas comme celui-ci est non seulement utile, mais absolument nécessaire.
Sur le TRIM
En informatique, trim (mot anglais pouvant signifier : réduire, tailler, bien arranger, ...) est une commande qui permet à un système d’exploitation d'indiquer à un contrôleur de stockage de type mémoire flash (SSD) quels blocs de données ne sont plus utilisés et peuvent donc être effacés. Cette commande améliore les performances d'accès aux SSD.
Source et détails https://fr.wikipedia.org/wiki/Trim_(informatique)
Je cite :
Les SSD ont également le concept de TRIM.
Bien que TRIM (retrim) soit un concept distinct de la fragmentation, il est toujours géré par le sous-système Windows Storage Optimizer et la planification est gérée par la même interface utilisateur du point de vue de l'utilisateur. TRIM est un moyen pour les SSD de marquer les blocs de données comme non utilisés.
L'écriture sur des blocs vides sur un SSD est plus rapide que l'écriture sur des blocs en cours d'utilisation, car ceux-ci doivent être effacés avant d'y écrire à nouveau.
Les SSD fonctionnent en interne très différemment des disques durs traditionnels et ne savent généralement pas quels secteurs sont utilisés et quel est l'espace libre.
Supprimer quelque chose signifie le marquer comme non utilisé.
TRIM permet au système d'exploitation d'informer le SSD qu'une page n'est plus utilisée et cet indice donne au SSD plus d'informations, ce qui se traduit par moins d'écritures et une durée de vie théoriquement plus longue.
Il faut se rappeler que l''ensemble de l'interaction OS et SSD repose sur les principes d'un héritage des disques durs
Le système d'exploitation écrit dans les LBA et les marque libres lorsque vous supprimez des fichiers.
Le SSD lui n'en a aucune idée, et c'est pourquoi il a besoin de TRIM pour apprendre que ces LBA sont disponibles.
Cela pose de GROS problèmes évidemment pour la récupération de fichiers si le TRIM est effectué (En fait elle sera quasi impossible
Voir ce sujet en cas de perte de données à récupérer
viewtopic.php?p=508078#p508078
Faire attention AUSSI à certains programmes de nettoyage comme PRIVAZER qui effectue un TRIM après nettoyage
PRIVAZER https://www.malekal.com/privazer-nettoyer-windows/
CONCLUSION
NON, Windows n'exécute pas bêtement ou aveuglément une défragmentation sur votre SSD toutes les nuits, et NON la défragmentation Windows ne raccourcit pas inutilement la durée de vie de votre SSD.
Les SSD modernes ne fonctionnent pas de la même manière que celle à laquelle nous sommes habitués avec les disques durs traditionnels.
OUI, le système de fichiers de votre SSD a parfois besoin d'une sorte de défragmentation et celle-ci est gérée par Windows, mensuellement par défaut, le cas échéant.
L'objectif est de maximiser les performances et une longue durée de vie pour votre SSD.
Si vous désactivez complètement la défragmentation (elire le problème de la désactivation de la restauration système un peu plus haut par ex), vous courez le risque que les métadonnées de votre système de fichiers atteignent une fragmentation maximale et vous causent potentiellement des ennuis.
Moralité : Laisser faire Windows dans le cadre de ses tâches de maintenance.(il fait la même chose pour les disques durs et s'active sur ceux ci si la fragmentation est supérieure à 10%)
La tâche planifiée vérifie chaque semaine si le SSD a été défragmenté au cours des 28 derniers jours, et s'il ne l'a pas été, il défragmente. Sinon, il vérifie à nouveau la semaine suivante
Cependant, les SSD traitent les commandes TRIM comme des "suggestions", pas comme des commandes
Le système d'exploitation supprime un fichier → marque les LBA comme libres → envoie une commande TRIM au contrôleur.
Le système d'exploitation sait déjà que ces LBA sont disponibles et le contrôleur ne dit rien au système d'exploitation à leur sujet.
Les différents contrôleurs, leur firmware, leur conception etc ont donc AUSSI leur mot à dire et feront au mieux pour leur modèle de SSD (et il n'y a pas que le TRIM et Re-TRIM dans la gestion du SSD) tout comme le contrôleur SSD interne sait combien il y a de cellules défectueuses et pas Windows
On peut le voir dans des programmes d'analyses comme Crystal Disk Info, qui ne donnera pas obligatoirement les memes infos que l'outil du constructeur du SSD
Suivant les marques, les modèles, version de firmware, et que l'on soit en Sata ou PCI (NVMe) le nombre de données qui apparaissent dans CrystalDisk peuvent donc différer (et du restes dans d'autres logiciels, et pire dans l'analyse)
L'avantage : Crystal Disk indiquera que certaines valeurs "C x" sont désastreuses alors que pour le programme du constructeur (Samsung Magician, Crucial Storage par ex) tout est parfait (ouf :-)
Donc hormis l'indicateur de l état de santé,global qui affiche du Bleu, jaune ou rouge, le reste "peut" être sujet à caution
Même le % sur l'état de santé n'est pas représentatif (qui prend en compte le nombre d'écriture dont la durée de vie "théorique" du SSD)
On a pu le voir également plus ou moins récemment chez Samsung par ex avec sa série EVO qui avait le souci du SSD qui ralentissait au fil du temps du fait de la fragmentation. Cela a été corrigé avec un nouveau firmware
Comme quoi le firmware est important
FINALEMENT
FAUT IL DEFRAGMENTER UN SSD ?
Pour faire court
Pour rappel, sur un SSD il n'y a pas de plateau mais des cellules
Chaque cellule du SSD répond à la même vitesse, donc que les données soient répartis un peu partout cela ne changera rien à la vitesse d'accès (enfin si mais l'impact est plus qu'insignifiant. La différence en 0.10 et 0.15ms n'est pas .. visible, du reste cette valeur est surement fausse mais c'est pour l'exemple)
En plus chaque cellule d’un SSD ne supporte qu’un nombre limité d’écriture.
En défragmentant, on va déplacer une grande quantité de données et donc consommer des cycles d’écritures
Du reste le contrôleur du SSD est content lui que ce soit fragmenté, car il s'occupe de réorganiser le stockage des différents clusters dans des cellules non contiguës
Le but ? Optimiser le nombre d'écriture pour chaque cellule puisque comme indiqué plus haut, le SSD a un nombre limité d'écritures
Si cela vous arrive par mégarde avec certains outils, bien que la fonction soit désactivée par défaut dans Windows et si vous avez tout compris il ne s'agit QUE d'une optimisation, et que les programmes de défragmentation "normalement" la désactive également en présence d'un SSD, ce n'est pas grave, mais il faut éviter de le faire
https://www.crucial.fr/support/articles ... mance-loss
Si après un usage de X mois ou années vous notez une diminution des performances de votre SSD. La seule vraie solution alors est un "disk erase" (un sanitize en fait), néanmoins des SDD comme chez CRUCIAL (sauf série BX) ou SAMSUNG ont des routines évoluées et se débrouillent seuls
Ce qu'il faut se rappeler :
Storage Optimizer défragmentera un disque SSD une fois par mois si les instantanés de volume sont activés.
Cela est nécessaire par nature à cause de la lenteur de la copie sur volsnap en écriture sur les volumes SSD fragmentés.
C’est aussi une idée fausse que la fragmentation ne soit pas un problème sur les disques SSD.
Si un disque SSD devient trop fragmenté, vous pouvez utiliser la fragmentation maximale de fichier (lorsque les métadonnées ne peuvent plus représenter de fragments de fichier), ce qui entraînera des erreurs lorsque vous tentez d’écrire / d’étendre un fichier.
De plus, plus de fragments de fichiers signifie plus de métadonnées à traiter lors de la lecture / écriture d'un fichier, ce qui peut ralentir les performances( voir la partie sur le NTFS)
En ce qui concerne Retrim, cette commande doit être exécutée selon la planification spécifiée dans l'interface utilisateur de dfrgui.
Retrim est nécessaire en raison de la manière dont TRIM est traité dans les systèmes de fichiers.
En raison des performances variables du matériel répondant à TRIM, TRIM est traité de manière asynchrone par le système de fichiers.
Lorsqu'un fichier est supprimé ou que l'espace est libéré, le système de fichiers met en file d'attente la demande de rognage à traiter.
Pour limiter l'utilisation maximale des ressources, cette file d'attente peut uniquement atteindre un nombre maximal de demandes de rognage.
Si la file d'attente est de taille maximale, les demandes TRIM entrantes peuvent être supprimées.
Ce n'est pas grave,car il est effectué périodiquement un Retrim avec Storage Optimizer.
Le rappel est effectué avec une granularité qui évite d’atteindre la taille maximale de la file d’attente de requête TRIM où les TRIM sont supprimés.
La commande TRIM a plutôt tendance à économiser de la durée de vie, vu que cela évite au SSD de faire un cycle de Garbage Collector pour rien.
Et en tant que tel le TRIM ne consomme pas d'écriture.
C'est juste marquer dans la table d'allocation tels secteurs comme vides.
Le SSD ne fait pas du TRIM lui-même mais du Garbage Collector.
C'est le même but, mais pas du tout la même opération. Et le garbage collector est bien plus pénalisant pour les perfs/la durée de vie.
Le soucis c'est que ce n'est pas toujours explicite (on le voit par ex avec la fonction d'optimisation de l'outils Samsung Magician qui propose une "optimisation" et ne parle que de TRIM. En fait on ne sait ce qui est effectué derrière
Sur la Tâche planifiée
Source : https://docs.microsoft.com/fr-fr/window ... duled-task
(je copie colle au cas où cela disparaîtrait du site Microsoft)
Le processus de défragmentation exécute la tâche planifiée en tant que tâche de maintenance, qui s’exécute généralement toutes les semaines. En tant qu’administrateur, vous pouvez modifier la fréquence d’exécution de la tâche à l’aide de l’application optimiser les lecteurs .
Lorsqu’elle est exécutée à partir de la tâche planifiée, Defrag utilise les instructions de stratégie ci-dessous pour les disques SSD :
https://www.thessdreview.com/daily-news ... -primer/2/
___________________________________
SOUS WINDOWS 7
Accessoirement pour ceux qui continuent d'utiliser Windows 7 (et il y a encore pas mal d'utilisateurs lorsqu'on lit les forums) et qui installent un SSD sur un vieux PC (vieux est.. relatif) j'avais été confronté à un soucis :
Trimcheck ne donnait pas de retour d'un TRIM actif tant que n'avait pas été installé le pilote de son contrôleur SATA
Dans le cas présent il s'agissait des pilotes Intel RST (qui depuis leur version 9.6 supportent le TRIM)
Il faut donc se rappeler que le mode AHCI n'était pas actif par défaut dans le bios des carte mères et qu'il ne fallait pas oublier d'installer les pilotes des contrôleurs tiers SATA (même si le AHCI n'est pas indispensable pour le TRIM car cela fonctionne en IDE, c'est le pîlote qui doit le supporter)
Certains contrôleurs SATA pouvaient mettre le bazar (Certains Marvell par ex sur CM bureautiques, comprendre bas de gamme)
Sans compter les anciens SSD qui n'en tenaient pas compte, ou des SSD avec firmware buggué (OCZ vertex le bien connu :-)
Bref il faut que toute la chaîne supporte le TRIM (en fin de chaîne il faut que le SSD interprète la commande)
Et là aussi pour rappel sur l'usage de TrimCheck
La commande "fsutil behavior query disabledeletenotify" ne fait qu'indiquer si le TRIM est possible, mais elle n'indique aucunement si il est actif
A la place de la commande fsutil, il faut utiliser TrimCheck http://files.thecybershadow.net/trimcheck/
Comme le précise Marc Prieur (hardware.fr) "Cette commande n'a jamais rien indiqué d'autre que l'activation du TRIM au niveau de l'OS, cela ne veut en aucun cas dire que la commande passe au travers du pilote AHCI/RAID et arrive au SSD"
Pour l'usage, il faut bien attendre une vingtaine de secondes, après avoir quitté le programme
Juste avant le programme a écrit le fichier "trimcheck-cont.json"
Ensuite on relance et là on a le résultat
Si le TRIM est inactif, il est impératif d'effacer le fichier trimcheck-cont.json afin d'utiliser TrimCheck à nouveau, une fois qu'on aura trouvé la correction du problème (pilotes par ex,...) sinon le résultat sera le même
Se rappeler quand même :
- Sous Windows 7 la planification de l'optimisation était désactivée par défaut mais le TRIM était déjà là et fonctionnel à la sortie de Windows version finale en 2009, et il était normal que le défragmenteur soit désactivé, puisque cela n'a rien à voir avec une "défragmentation" comme pour les disque durs (pas la peine d'expliquer la différence , relire ce qui a été dit ci dessus))
- Sous Windows 10, la planification de l'optimisation est activée
C'est l'outil de défragmentation (defrag.exe) qui comprend l'optimiseur (Optimiseur de stockage ) du moins cela a commencé comme cela avec Win8
Dans le menu par contre c'est indiqué "optimiser (avec une tâche planifiée) et il est vrai que si on regarde le nom defrag.exe, on pourrait penser à défragmentation
Ensuite que cette optimisation soit nécessaire.. C'est lié aux SSD, à leur firmware (capables ou pas)
Et comme il était dit un peu plus haut "cela touche plus les SSD avec un espace de stockage limité et où l'utilisation de la mémoire atteint un niveau élevé" (d'où l'apparition de programmes de défragmentations de SSD)
_________________
PS : J'ai compilé plusieurs de mes archives dans cet article (issus d'un autre forum où je m'étais exprimé). Je relirai à tête reposé car certains paragraphes doivent être regroupés, là je suis pris par le temps
Sources principales et pour approfondir :
https://social.technet.microsoft.com/Fo ... og-scottha
http://blogs.technet.com/b/askcore/arch ... rowth.aspx
https://docs.microsoft.com/fr-fr/window ... duled-task
https://www.thessdreview.com/daily-news ... -primer/2/
https://www.outsidethebox.ms/why-window ... void-this/
Je suis désolé pour mes autres sources, telles que MSDN, mais Microsoft a tout effacé depuis la réorganisation de ses serveurs et mes cours renvoyaient à ces liens
Il y avait un lien qui disait par ex :
Comment la fragmentation sur des volumes NTFS mal formatés affecte Exchange ?
"NTFS a ses limites avec le la taille globale de cette liste d'attributs par fichier et peut avoir environ 1,5 million de fragments.Ce n'est pas un maximum absolu, mais c'est autour de la zone où des problèmes peuvent survenir."
Pour les disques durs se référer à cet article :
viewtopic.php?p=531541
IMPORTANT : Tout comme sur les disques dur, pour que la maintenance s'effectue, il est impératif de disposer au minima de 10% de place libre (défragmentation par ex) mais idéalement de 15 à 20%
Sur un SSD les fonctions de maintenance TRIM, Garbage collector, ... ne pourront s'exécuter, ou du moins cela n'aura pas grand effet (effet partiel)
Sur un SSD ce seront sinon les toujours mêmes cellules qui seront effacées/écrites majoritairement, ce qui réduit leur durée de vie
C'est encore pire sur les SSD bas de gamme et surtout "Chinois" où il est impératif de créer une petite partition pour l'over-provisionning,
viewtopic.php?p=519922#p519922
Aux vues des interrogations des utilisateurs (justifiées) on peut légitimement se poser la question de ... la défragmentation d'un SSD
Même sur Windows 11, on peut voir apparaître des messages de type (où xxx représente l'unité de disque) une application "Microsoft windows defrag"
- L'optimiseur de Stockage a termine la réoptimisation sur xxxxx
- Défragmentation sur XXXX
Le même soucis apparait sous Windows 10, une fois par mois (enfin un peu moins, tous les 28 jours en fait) avec certaines conditions (Services de restauration, sheduler actifs, ...)
Il s'agit d'une mauvaise traduction du moins il s'agit d'une traduction qui doit dater d'au moins une quinzaine d'années et qui n'a pas été actualisée en fonction du support SSD)
Sous windows 10 et 11, ce n'est pas une défragmentation. Le mot est donc trompeur
C'est une optimisation système. Windows 10 et 11 reconnaissent parfaitement un SSD (Windows 7 aussi) et cette optimisation consiste en .. une commande TRIM
On sait que depuis Windows 7, la commande TRIM, est supportée nativement (détails à la fin de cet article)
Cela a pour but "d'indiquer" (le terme est important) au contrôleur d'un SSD quels sont les blocs de données non utilisés, et donc ceux qu'il peut effacer.
Cela à un lien avec ce qu'on appelle, l amplification d'écriture, et cette commande évite au SSD de voir ses performances diminuer trop rapidement dans le temps.
Avec les anciennes générations de SSD ce n'était pas optimum, et il fallait procéder à un "erase" tous les X ans pour retrouver toute la vitesse de transfert du SSD
Erase ou Sanitize ? viewtopic.php?p=508078#p508078
Certains éditeurs de programmes proposent toujours des défragmenteurs (il y aurait beaucoup à dire sur le sujet) mais ils jouent sur les deux tableaux car c'est proposé à la fois pour les disques durs, et.. les SSD
Ces outils permettaient d'effectuer en une seule fois ce que fait le TRIM en temps réel mais il y a un lien avec la fragmentation et cela touchait les SSD avec un espace de stockage limité et où l'utilisation de la mémoire qui atteignait un niveau élevé
Parce que OUI un SSD peut se fragmenter, mais le lien est avec le système de fichiers NTFS (je ne parle pas des données)
Cela compensait un firmware non abouti, et ces outils décrits comme des "optimiseurs" permettaient de résoudre la fragmentation extrême et, d'autre part, empêchait les opérations d'écriture inutiles
Néanmoins il fallait que cette l'optimisation de SSD soit complétée par des commandes TRIM régulières.
Ils sont peut etre encore utile sur les SSD achetés sur Wish ou à très bas prix de constructeurs Chinois inconnus surtout dans des tailles de 128Go. Je ne sais et c'est à confirmer
O&O dit bien "résout et empêche la fragmentation extrême "
Defraggler fait la même chose : https://www.ccleaner.com/docs/defraggle ... r-and-ssds
Pour les autres https://www.malekal.com/meilleurs-logic ... on-disque/
Dans le cas présent :
https://www.oo-software.com/en/products/oodefrag
Au jour où je tapote, on en est à la version 29 mais dans la version 19 il était écrit :
______
"Le nouveau O & O Defrag19 apporte également un optimiseur SSD qui améliore la structure réelle d'un système de fichiers SSD. Depuis leur introduction, des discussions sont en cours pour savoir si les disques SSD peuvent être défragmentés ou non.
En théorie, il est à peine nécessaire, car ils fonctionnent si rapidement et que la durée de vie du lecteur est réduite au fur et à mesure des accès en écriture. Une défragmentation complète n’est ni nécessaire ni souhaitable. Cela a toujours été pris en compte avec O & O Defrag.
Malgré cela, les systèmes de fichiers SSD souffrent d'une fragmentation inhérente des données, tout comme un disque dur traditionnel. Cela peut être particulièrement élevé avec des modèles moins chers avec un espace de stockage limité et où l'utilisation de la mémoire a atteint un niveau élevé.
Cette fragmentation réduit les performances de lecture et d'écriture. Lorsque des fichiers très fragmentés sont réécrits, les performances de nivellement de l'usure sont également réduites.
Le système de fichiers NTFS atteint également rapidement ses limites de performances en cas de fragmentation extrême.
C'est pourquoi O & O Defrag 19 fournit désormais un optimiseur pour les disques SSD qui, d'une part, résout et empêche la fragmentation extrême et, d'autre part, empêche les opérations d'écriture inutiles et que l'optimisation SSD est complétée par des commandes TRIM régulières.
-----------------------------------
Effectivement, il s'agit bien d'une optimisation plus qu'une défragmentation, et qui consiste à remettre la commande TRIM à zéro
Microsoft parle d'une limitation du NTFS qui peut dans des cas très spécifiques poser des problèmes d'accès à des fichiers très fragmentés pour (très certainement) des fichiers très volumineux.
Pour compenser la chose, voir cet articule sur le site : https://www.malekal.com/fsutil-optimise ... _de_la_MFT
Cela n'est pas à confondre avec certaines "optimisations" que l'on retrouve sur des programmes... Payants ou gratuits, et qui sont des abérrations :
Ex : https://www.malekal.com/optimiser-accel ... moire_NTFS
Dans la fonction qui apparait sur ce lien on a l'impression que le terme n'est pas adapté car la description ne correspond pas à une augmentation des bufffers, (on peut le supposer sinon du fait de plantages il y aurait eu des retours et cela aurait été supprimé)
Cependant j'ai voulu en avoir le coeur net et après installation du programme de tweak, c'est la seule fonction qu'il m'est demandé d'activer et qu'il me reste à "optimiser" (terme fallacieux)
Je testerai en réel (pour voir ce qui est inscrit dans le registre ) pour voir si on parle bien de la même chose
A noter qu'il y a eu un arrêt de ce programme (on ne sait les raisons si ce n'est que la raison d'être de ces programmes étaient surtout pour le TRIM sous XP, puisque cela n'était pas géré (et parfois sous Win7 sous certaines conditions)
http://www.totalidea.com/products/tweak-ssd/index.php
le "large system cache"
La clé affectée :
Code : Tout sélectionner
HKEY LOCAL MACHINE\System\CurrentControlSet\Control\Session Manager\Memory Management
DWORD "LargeSystemCache" =1
Sur du 64bits. aucun effet si ce n'est les inconvénients décrits dans le lien assiste.com (risque de plantage par ex)
https://assiste.com/Cache_disque.html
Idem pour le IoPageLockLimit
Code : Tout sélectionner
HKEY LOCAL MACHINE\System\CurrentControlSet\Control\Session Manager\Memory Management
DWORD "IoPageLockLimit" = F0000
Pourquoi "défragmenter"/optimiser quand même de temps en temps un SSD ?
Le problème c’est que le système de fichiers utilisé par Windows, le NTFS, n’a pas du tout été prévu pour être utilisé sur des SSD (qui n’existaient pas à l’époque)
Avec le NTFS, Windows va stocker pour chaque fichier une “table d’allocation” où seront répertoriés les différents “morceaux” du fichier.
Pour lire un fichier, il va donc lire cette table, puis lire les différents morceaux dans l’ordre.
Sauf que cette table, d’une part devient vite complexe à lire quand le nombre de fragments augmente, et d’autre part ne peut contenir qu’un nombre de fragments limité
Plus exactement, le NTFS va allouer une table de taille limitée contenant d’autres tables de tailles elles mêmes limitées pour y stocker les positions des fragments.
Si le fichier est peu fragmenté, il n’y aura donc qu’une seule table à consulter.
Si le fichier devient plus fragmenté, il faudra consulter plusieurs tables (c’est un petit peu plus long mais rarement perceptible). Et si le fichier devient vraiment très fragmenté, le nombre de tables peut carrément ne plus suffire
Pourquoi faut il défragmenter un SSD et pourquoi il ne faut pas
https://www.olivierhuet.fr/blog/2014120 ... est-utile/
Ce qu'on peut lire ailleurs
" L'optimiseur de stockage défragmentera un SSD une fois par mois si les instantanés de volume sont activés.
C'est par conception et nécessaire en raison de la lenteur de la copie Volsnap sur les performances d'écriture sur les volumes SSD fragmentés.
C'est aussi une idée fausse que la fragmentation n'est pas un problème sur les SSD.
Si un SSD est trop fragmenté, vous pouvez atteindre une fragmentation maximale des fichiers (lorsque les métadonnées ne peuvent plus représenter de fragments de fichiers), ce qui entraînera des erreurs lorsque vous essayez d'écrire/d'étendre un fichier. De plus, plus de fragments de fichiers signifient plus de métadonnées à traiter lors de la lecture/écriture d'un fichier, ce qui peut ralentir les performances."
Ce qu'il faut préciser : Quand il est dit instantanés de volume ou "volsnap", cela désigne le système de cliché instantané de volume sous Windows. Ceci est utilisé et activé par la restauration du système Windows lorsqu'elle prend un instantané de votre système et l'enregistre afin que vous puissiez revenir à un état précédent du système.
La commande Defrag ne fonctionnera donc sur votre SSD que SI volsnap est activé, et volsnap est activé par la restauration du système car l'un a besoin de l'autre.
Vous pouvez désactiver la restauration du système si vous le souhaitez, mais cela désactive une fonction considérée comme de sécurité assez importante pour Windows.
Cela avait déjà été constaté sous Windows 8.1 qu'en est il aujourd'hui ?
On ne sait pas. Malgré les rapports de bogues du temps de windwos 8, etc Microsoft n'a jamais répondu et le soucis existait encore dans les premières moutures de Windows 10
A la lecture de tout cela on comprend mieux que la fragmentation, même si le problème de performances est moindre sur les SSD par rapport aux disques durs traditionnels est toujours un problème :
Les SSD *peuvent* être fragmentés.
Seulement il ne faut pas raisonner en termes de disposition des fichiers sur l'unité de disque, comme sur les disques durs
il n'y a pas, volontairement, de stockage contigu (c'est-à-dire séquentiel) dans un SSD. Les bits sont éparpillés sur les matrices disponibles par le contrôleur de la manière qu'il juge la plus efficace.
Lorsqu'un disque dur est fragmenté, un fichier peut exister en plusieurs morceaux à différents emplacements sur un lecteur physique.
Ce lecteur physique doit ensuite chercher à collecter des éléments du fichier, ce qui prend plus de temps.
Ce type de fragmentation se produit toujours sur les SSD, même si leurs caractéristiques de performances sont très différentes car il ne faut pas oublier ce qui fait la force d'un SSD : Le temps d'accès
Donc dans la" position" des données cela n'a pas d'impact sur les performances, contrairement à un disque dur qui doit déplacer sa tête de lecture pour chaque cluster.
La seconde raison, c'est que l'agencement logique du SSD (le cluster 2 suit le cluster 1 et précède le cluster 3, etc.) n'est pas le même que l'agencement physique, géré par le contrôleur.
Le cluster 1 est peut-être sur la troisième puce de mémoire, le cluster 2 sur la première et le cluster 3 sur la huitième
Néanmoins, les métadonnées des systèmes de fichiers gardent une trace des fragments et ne peuvent en garder qu'un nombre limité.
La défragmentation dans des cas comme celui-ci est non seulement utile, mais absolument nécessaire.
Sur le TRIM
En informatique, trim (mot anglais pouvant signifier : réduire, tailler, bien arranger, ...) est une commande qui permet à un système d’exploitation d'indiquer à un contrôleur de stockage de type mémoire flash (SSD) quels blocs de données ne sont plus utilisés et peuvent donc être effacés. Cette commande améliore les performances d'accès aux SSD.
Source et détails https://fr.wikipedia.org/wiki/Trim_(informatique)
Je cite :
Les SSD ont également le concept de TRIM.
Bien que TRIM (retrim) soit un concept distinct de la fragmentation, il est toujours géré par le sous-système Windows Storage Optimizer et la planification est gérée par la même interface utilisateur du point de vue de l'utilisateur. TRIM est un moyen pour les SSD de marquer les blocs de données comme non utilisés.
L'écriture sur des blocs vides sur un SSD est plus rapide que l'écriture sur des blocs en cours d'utilisation, car ceux-ci doivent être effacés avant d'y écrire à nouveau.
Les SSD fonctionnent en interne très différemment des disques durs traditionnels et ne savent généralement pas quels secteurs sont utilisés et quel est l'espace libre.
Supprimer quelque chose signifie le marquer comme non utilisé.
TRIM permet au système d'exploitation d'informer le SSD qu'une page n'est plus utilisée et cet indice donne au SSD plus d'informations, ce qui se traduit par moins d'écritures et une durée de vie théoriquement plus longue.
Il faut se rappeler que l''ensemble de l'interaction OS et SSD repose sur les principes d'un héritage des disques durs
Le système d'exploitation écrit dans les LBA et les marque libres lorsque vous supprimez des fichiers.
Le SSD lui n'en a aucune idée, et c'est pourquoi il a besoin de TRIM pour apprendre que ces LBA sont disponibles.
Cela pose de GROS problèmes évidemment pour la récupération de fichiers si le TRIM est effectué (En fait elle sera quasi impossible
Voir ce sujet en cas de perte de données à récupérer
viewtopic.php?p=508078#p508078
Faire attention AUSSI à certains programmes de nettoyage comme PRIVAZER qui effectue un TRIM après nettoyage
PRIVAZER https://www.malekal.com/privazer-nettoyer-windows/
CONCLUSION
NON, Windows n'exécute pas bêtement ou aveuglément une défragmentation sur votre SSD toutes les nuits, et NON la défragmentation Windows ne raccourcit pas inutilement la durée de vie de votre SSD.
Les SSD modernes ne fonctionnent pas de la même manière que celle à laquelle nous sommes habitués avec les disques durs traditionnels.
OUI, le système de fichiers de votre SSD a parfois besoin d'une sorte de défragmentation et celle-ci est gérée par Windows, mensuellement par défaut, le cas échéant.
L'objectif est de maximiser les performances et une longue durée de vie pour votre SSD.
Si vous désactivez complètement la défragmentation (elire le problème de la désactivation de la restauration système un peu plus haut par ex), vous courez le risque que les métadonnées de votre système de fichiers atteignent une fragmentation maximale et vous causent potentiellement des ennuis.
Moralité : Laisser faire Windows dans le cadre de ses tâches de maintenance.(il fait la même chose pour les disques durs et s'active sur ceux ci si la fragmentation est supérieure à 10%)
La tâche planifiée vérifie chaque semaine si le SSD a été défragmenté au cours des 28 derniers jours, et s'il ne l'a pas été, il défragmente. Sinon, il vérifie à nouveau la semaine suivante
Cependant, les SSD traitent les commandes TRIM comme des "suggestions", pas comme des commandes
Le système d'exploitation supprime un fichier → marque les LBA comme libres → envoie une commande TRIM au contrôleur.
Le système d'exploitation sait déjà que ces LBA sont disponibles et le contrôleur ne dit rien au système d'exploitation à leur sujet.
Les différents contrôleurs, leur firmware, leur conception etc ont donc AUSSI leur mot à dire et feront au mieux pour leur modèle de SSD (et il n'y a pas que le TRIM et Re-TRIM dans la gestion du SSD) tout comme le contrôleur SSD interne sait combien il y a de cellules défectueuses et pas Windows
On peut le voir dans des programmes d'analyses comme Crystal Disk Info, qui ne donnera pas obligatoirement les memes infos que l'outil du constructeur du SSD
Suivant les marques, les modèles, version de firmware, et que l'on soit en Sata ou PCI (NVMe) le nombre de données qui apparaissent dans CrystalDisk peuvent donc différer (et du restes dans d'autres logiciels, et pire dans l'analyse)
L'avantage : Crystal Disk indiquera que certaines valeurs "C x" sont désastreuses alors que pour le programme du constructeur (Samsung Magician, Crucial Storage par ex) tout est parfait (ouf :-)
Donc hormis l'indicateur de l état de santé,global qui affiche du Bleu, jaune ou rouge, le reste "peut" être sujet à caution
Même le % sur l'état de santé n'est pas représentatif (qui prend en compte le nombre d'écriture dont la durée de vie "théorique" du SSD)
On a pu le voir également plus ou moins récemment chez Samsung par ex avec sa série EVO qui avait le souci du SSD qui ralentissait au fil du temps du fait de la fragmentation. Cela a été corrigé avec un nouveau firmware
Comme quoi le firmware est important
FINALEMENT
FAUT IL DEFRAGMENTER UN SSD ?
Pour faire court
Pour rappel, sur un SSD il n'y a pas de plateau mais des cellules
Chaque cellule du SSD répond à la même vitesse, donc que les données soient répartis un peu partout cela ne changera rien à la vitesse d'accès (enfin si mais l'impact est plus qu'insignifiant. La différence en 0.10 et 0.15ms n'est pas .. visible, du reste cette valeur est surement fausse mais c'est pour l'exemple)
En plus chaque cellule d’un SSD ne supporte qu’un nombre limité d’écriture.
En défragmentant, on va déplacer une grande quantité de données et donc consommer des cycles d’écritures
Du reste le contrôleur du SSD est content lui que ce soit fragmenté, car il s'occupe de réorganiser le stockage des différents clusters dans des cellules non contiguës
Le but ? Optimiser le nombre d'écriture pour chaque cellule puisque comme indiqué plus haut, le SSD a un nombre limité d'écritures
Si cela vous arrive par mégarde avec certains outils, bien que la fonction soit désactivée par défaut dans Windows et si vous avez tout compris il ne s'agit QUE d'une optimisation, et que les programmes de défragmentation "normalement" la désactive également en présence d'un SSD, ce n'est pas grave, mais il faut éviter de le faire
https://www.crucial.fr/support/articles ... mance-loss
Si après un usage de X mois ou années vous notez une diminution des performances de votre SSD. La seule vraie solution alors est un "disk erase" (un sanitize en fait), néanmoins des SDD comme chez CRUCIAL (sauf série BX) ou SAMSUNG ont des routines évoluées et se débrouillent seuls
Ce qu'il faut se rappeler :
Storage Optimizer défragmentera un disque SSD une fois par mois si les instantanés de volume sont activés.
Cela est nécessaire par nature à cause de la lenteur de la copie sur volsnap en écriture sur les volumes SSD fragmentés.
C’est aussi une idée fausse que la fragmentation ne soit pas un problème sur les disques SSD.
Si un disque SSD devient trop fragmenté, vous pouvez utiliser la fragmentation maximale de fichier (lorsque les métadonnées ne peuvent plus représenter de fragments de fichier), ce qui entraînera des erreurs lorsque vous tentez d’écrire / d’étendre un fichier.
De plus, plus de fragments de fichiers signifie plus de métadonnées à traiter lors de la lecture / écriture d'un fichier, ce qui peut ralentir les performances( voir la partie sur le NTFS)
En ce qui concerne Retrim, cette commande doit être exécutée selon la planification spécifiée dans l'interface utilisateur de dfrgui.
Retrim est nécessaire en raison de la manière dont TRIM est traité dans les systèmes de fichiers.
En raison des performances variables du matériel répondant à TRIM, TRIM est traité de manière asynchrone par le système de fichiers.
Lorsqu'un fichier est supprimé ou que l'espace est libéré, le système de fichiers met en file d'attente la demande de rognage à traiter.
Pour limiter l'utilisation maximale des ressources, cette file d'attente peut uniquement atteindre un nombre maximal de demandes de rognage.
Si la file d'attente est de taille maximale, les demandes TRIM entrantes peuvent être supprimées.
Ce n'est pas grave,car il est effectué périodiquement un Retrim avec Storage Optimizer.
Le rappel est effectué avec une granularité qui évite d’atteindre la taille maximale de la file d’attente de requête TRIM où les TRIM sont supprimés.
La commande TRIM a plutôt tendance à économiser de la durée de vie, vu que cela évite au SSD de faire un cycle de Garbage Collector pour rien.
Et en tant que tel le TRIM ne consomme pas d'écriture.
C'est juste marquer dans la table d'allocation tels secteurs comme vides.
Le SSD ne fait pas du TRIM lui-même mais du Garbage Collector.
C'est le même but, mais pas du tout la même opération. Et le garbage collector est bien plus pénalisant pour les perfs/la durée de vie.
Le soucis c'est que ce n'est pas toujours explicite (on le voit par ex avec la fonction d'optimisation de l'outils Samsung Magician qui propose une "optimisation" et ne parle que de TRIM. En fait on ne sait ce qui est effectué derrière
Sur la Tâche planifiée
Source : https://docs.microsoft.com/fr-fr/window ... duled-task
(je copie colle au cas où cela disparaîtrait du site Microsoft)
Le processus de défragmentation exécute la tâche planifiée en tant que tâche de maintenance, qui s’exécute généralement toutes les semaines. En tant qu’administrateur, vous pouvez modifier la fréquence d’exécution de la tâche à l’aide de l’application optimiser les lecteurs .
Lorsqu’elle est exécutée à partir de la tâche planifiée, Defrag utilise les instructions de stratégie ci-dessous pour les disques SSD :
- Processus d’optimisation traditionnels. Comprend une défragmentation traditionnelle, par exemple le déplacement de fichiers afin de les rendre raisonnablement contigus et de les réajuster. Cette opération est effectuée une fois par mois. Toutefois, si la défragmentation et la réajustement classiques sont ignorés, l' analyse n’est pas exécutée. La modification de la fréquence de la tâche planifiée n’affecte pas la cadence d’une fois par mois pour les disques SSD.
- Si vous exécutez manuellement la défragmentation traditionnelle sur un disque SSD, entre les exécutions planifiées normalement, l’exécution de la tâche planifiée suivante effectue une analyse et une réajustement, mais ignore la défragmentation traditionnelle sur ce disque SSD.
- Si vous ignorez l' analyse, vous ne verrez pas l’heure de la dernière exécution mise à jour dans l’application optimiser les lecteurs . C’est la raison pour laquelle l’heure de la dernière exécution peut être antérieure à un mois.
- Le processus ne sortira pas l’ordinateur pour qu’il s’exécute.
- L’ordinateur n’est pas branché. Le processus ne s’exécute pas si l’ordinateur fonctionne sur batterie.
- L’ordinateur a démarré la sauvegarde (reprise à partir de l’inactivité).
https://www.thessdreview.com/daily-news ... -primer/2/
___________________________________
SOUS WINDOWS 7
Accessoirement pour ceux qui continuent d'utiliser Windows 7 (et il y a encore pas mal d'utilisateurs lorsqu'on lit les forums) et qui installent un SSD sur un vieux PC (vieux est.. relatif) j'avais été confronté à un soucis :
Trimcheck ne donnait pas de retour d'un TRIM actif tant que n'avait pas été installé le pilote de son contrôleur SATA
Dans le cas présent il s'agissait des pilotes Intel RST (qui depuis leur version 9.6 supportent le TRIM)
Il faut donc se rappeler que le mode AHCI n'était pas actif par défaut dans le bios des carte mères et qu'il ne fallait pas oublier d'installer les pilotes des contrôleurs tiers SATA (même si le AHCI n'est pas indispensable pour le TRIM car cela fonctionne en IDE, c'est le pîlote qui doit le supporter)
Certains contrôleurs SATA pouvaient mettre le bazar (Certains Marvell par ex sur CM bureautiques, comprendre bas de gamme)
Sans compter les anciens SSD qui n'en tenaient pas compte, ou des SSD avec firmware buggué (OCZ vertex le bien connu :-)
Bref il faut que toute la chaîne supporte le TRIM (en fin de chaîne il faut que le SSD interprète la commande)
Et là aussi pour rappel sur l'usage de TrimCheck
La commande "fsutil behavior query disabledeletenotify" ne fait qu'indiquer si le TRIM est possible, mais elle n'indique aucunement si il est actif
A la place de la commande fsutil, il faut utiliser TrimCheck http://files.thecybershadow.net/trimcheck/
Comme le précise Marc Prieur (hardware.fr) "Cette commande n'a jamais rien indiqué d'autre que l'activation du TRIM au niveau de l'OS, cela ne veut en aucun cas dire que la commande passe au travers du pilote AHCI/RAID et arrive au SSD"
Pour l'usage, il faut bien attendre une vingtaine de secondes, après avoir quitté le programme
Juste avant le programme a écrit le fichier "trimcheck-cont.json"
Ensuite on relance et là on a le résultat
Si le TRIM est inactif, il est impératif d'effacer le fichier trimcheck-cont.json afin d'utiliser TrimCheck à nouveau, une fois qu'on aura trouvé la correction du problème (pilotes par ex,...) sinon le résultat sera le même
Se rappeler quand même :
- Sous Windows 7 la planification de l'optimisation était désactivée par défaut mais le TRIM était déjà là et fonctionnel à la sortie de Windows version finale en 2009, et il était normal que le défragmenteur soit désactivé, puisque cela n'a rien à voir avec une "défragmentation" comme pour les disque durs (pas la peine d'expliquer la différence , relire ce qui a été dit ci dessus))
- Sous Windows 10, la planification de l'optimisation est activée
C'est l'outil de défragmentation (defrag.exe) qui comprend l'optimiseur (Optimiseur de stockage ) du moins cela a commencé comme cela avec Win8
Dans le menu par contre c'est indiqué "optimiser (avec une tâche planifiée) et il est vrai que si on regarde le nom defrag.exe, on pourrait penser à défragmentation
Ensuite que cette optimisation soit nécessaire.. C'est lié aux SSD, à leur firmware (capables ou pas)
Et comme il était dit un peu plus haut "cela touche plus les SSD avec un espace de stockage limité et où l'utilisation de la mémoire atteint un niveau élevé" (d'où l'apparition de programmes de défragmentations de SSD)
_________________
PS : J'ai compilé plusieurs de mes archives dans cet article (issus d'un autre forum où je m'étais exprimé). Je relirai à tête reposé car certains paragraphes doivent être regroupés, là je suis pris par le temps
Sources principales et pour approfondir :
https://social.technet.microsoft.com/Fo ... og-scottha
http://blogs.technet.com/b/askcore/arch ... rowth.aspx
https://docs.microsoft.com/fr-fr/window ... duled-task
https://www.thessdreview.com/daily-news ... -primer/2/
https://www.outsidethebox.ms/why-window ... void-this/
Je suis désolé pour mes autres sources, telles que MSDN, mais Microsoft a tout effacé depuis la réorganisation de ses serveurs et mes cours renvoyaient à ces liens
Il y avait un lien qui disait par ex :
Comment la fragmentation sur des volumes NTFS mal formatés affecte Exchange ?
"NTFS a ses limites avec le la taille globale de cette liste d'attributs par fichier et peut avoir environ 1,5 million de fragments.Ce n'est pas un maximum absolu, mais c'est autour de la zone où des problèmes peuvent survenir."
Vous ne pouvez pas consulter les pièces jointes insérées à ce message.
- Only Amiga... Was possible ! Lien https://forum.malekal.com/viewtopic.php?t=60830
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- Messages : 19570
- Inscription : 02 juin 2012 20:48
- Localisation : Thomas Anderson : Je suis dans et en dehors de la matrice :-)
Cloner son SSD ou HD avec les programmes des constructeurs : Mauvaise idée
Cloner son nouveau SSD ou utiliser l'outil migration du HD vers le SSD fourni avec le SSD ? MAUVAISE IDEE
Déjà il faut bien comprendre les différences entre un clonage disque et clonage avec migration de l'OS : https://www.malekal.com/clone-de-disque ... l-choisir/
LES INCONVENIENTS
En outil fourni, par ex, il y a quelques années CRUCIAL ne conseillait pas toujours le clonage avec son outil sur les PC ASUS mais une installation "propre"
En plus dans sa version gratuite (il s'agit d'une version d'Acronis True Image ), il crée bien le clone du DD mais ce n'est pas bootable et il faut passer par la version payante que CRUCIAL vend (ou vendait) autour de 30 euros le tout livré avec un câble
A priori maintenant il y a un renvoi vers le site d'ACRONIS pour une version à 40$ pour... un an
J'ai eu cette version gratuite il y a quelques années et elle ne fonctionnait pas si le disque dur était en GPT (c'était du temps de win7 mais où windows 10 était déjà sorti)
En plus il est conseillé pour le clonage de passer par un câble UASP (pour un clonage via USB) parce que cela ne concerne pas que la vitesse mais certaines commandes qui passent en SATA mais pas en USB, car l'UASP intègre des commandes https://wikiless.org/wiki/USB_Attached_SCSI?lang=fr
C'est pour cela du reste qu'il vaut mieux mettre son disque dur en SATA plutot qu'en USB pour de la récupération de données (mais c'est un autre sujet)
Pas mal de gens on eu également des problèmes (soucis d'UEFI, lenteurs, ...) en clonant leur HD en SATA sur un SSD en SATA et pas que pour les histoires d'ID hardware au redémarrage et de mauvaise sélections de disque
Le problème est différent avec un Macrium Reflect où la majorité des problèmes au redémarrage (pas de boot par ex) vient du fait que les utilisateurs lisant mal, n'ont pas coché toutes les partitions lors de la sélection (je ne sais ce qu'il en est maintenant mais dans l'absolu par ex en mode automatique toutes les partitions devraient être cochées par défaut)
Comment cloner son disque dur
https://www.malekal.com/comment-cloner-son-disque-dur/
A la base c'est surtout CRUCIAL qui fournit un programme foireux et/ou incomplet et il n'y a pas besoin de passer par un réparateur pour du clonage
(on a pu le lire sur le forum de la part de quelques utilisateurs) Tout est dans le programme utilisé...
Je pense que c'est une version retravaillée d'ACRONIS pour CRUCIAL, qui est spécifique (un peu comme les programmes en "SE" special edition, que l'on voyait il y a quelques années)
Du reste maintenant il n'y a plus besoin de rentrer une clé fournie par CRUCIAL lors de l'achat d'un SSD de la marque, car le programme fonctionne en détection de modèles de chez CRUCIAL (Et là on pourrait supposer qu'il soit complet mais ce n'est pas le cas puisque CRUCIAL propose l'achat via une mise à jour du programme)
CRUCIAL du reste parle de programme de migration pour son programme, pas de Clonage (sauf dans les FAQ et la doc) et conseille la sauvegarde et restauration sans oublier le disque de récupération à créer à part (idem pour le clonage) puisque dans leur doc il est même précisé que le disque source pourrait être affecté lorsqu'un clonage se passe mal (?) (En fait c'est surtout l'UEFI suivant la configuration avec le mode hérité ou pas etc )
Il est dit aussi "Acronis True Image pour Crucial ne modifie pas le disque d'origine et les données qui y sont stockées pendant le clonage." ce qui est contradictoire au sens strict sauf si on y apporte des précisions
Concernant la version et la précision " Elle est orientée pour la migration des données depuis un disque dur vers un SSD. " mais "Seule la fonction « cloner le disque » est disponible sous True Image pour Crucial" (là aussi tout comme le clonage peut etre considéré comme une sauvegarde, la migration de données peut l être aussi mais cela manque de précisions et embrouille les gens)
Acronis dans cette version ne peut pas cloner certaines partitions cachées comme la partition de récupération
Ces partitions sont généralement situées dans la dernière partie du lecteur,
Cela veut dire que ACRONIS ne sait pas faire correctement du clonage secteur par secteur dans sa version gratuite ou spécifique à CRUCIAL
Cloner secteur par secteur, également appelé copie bit à bit, permet de cloner tous les secteurs d'un disque dur, même si le secteur est vide ou s'il s'agit d'un secteur logiquement défectueux.
Cela permet donc de sauvegarder des données cachées ou des fichiers supprimés et cela inclut toutes les partitions
C'est la méthode que je conseille du reste pour de la récup de données, puisque la règle (qui est effectuée dans les centres de récupération de données) est de ne JAMAIS travailler sur l'original mais sur le clone)
Dans les payants (j'avoue que je ne sais pour certains gratuits) est ajouté la fonction "intelligente" qui permet EN PLUS de cloner sur un disque plus petit (sans que les données dépassent la capacité évidemment) et de cloner les secteurs defectueux si désiré
Le clonage se fera uniquement sur les secteurs utilisés des systèmes de fichiers
Par défaut, en fonction de base (en majorité les gratuits) pour du secteur par secteur, il faut que le disque cible disques soit de taille identique ou supérieure
CRUCIAL indique que "dans certains cas" il peut y avoir des problèmes d'alignement du SSD ce qui génère des lenteurs pour la vitesse de lecture et écriture
Là aussi j'aime bien ce genre de surprise :"Bien qu’Acronis initialise normalement le disque au cours du processus de clonage, cette opération devra peut-être être effectuée manuellement dans le Gestionnaire de disques de Windows® afin que le disque apparaisse comme « initialisé ». "
On retrouve le même problème avec d'autres outils de clonage qui copient intégralement le contenu de l'unité initiale, mais "oublient" de marquer la partition comme active, bootable etc.
A cela on y ajoute le fait que nombre de personnes ont installé initialement leur windows, alors qu'il y avait 2 unités de disques présentes et ne savent pas qu'il y a un bug qui perdure depuis les toutes premières versions de windows ; La partition de démarrage peut se retrouver sur l'autre disque, donc celui où Windows n'est pas installé
On peut parer à cela ensuite avec
EASY BCD
https://www.malekal.com/easybcd-editeur ... e-windows/
et
DISKPART
https://www.malekal.com/diskpart-creer- ... on-disque/
Et plus globalement https://www.malekal.com/resoudre-erreur ... indows-10/
mais ce n'est pas simple pour tout le monde et en plus il faut le savoir
AOMEI donne également une indication avec une procédure pas à pas
https://www.diskpart.com/fr/articles/de ... ystem.html
Autre problème pour AOMEI il est dit :
Dans la version gratuite, le clonage de disque ne supporte que 2 types. L'un est MBR vers MBR (disques système), l'autre est le clonage de données de disque. Si vous devez cloner GPT vers GPT, MBR vers GPT ou GPT vers MBR, vous pouvez télécharger la version professionnelle.
Ce qu'on lit sur la doc Crucial (au 22/03/2022)
Acronis True Image for Crucial does not support the following dynamic volume types: Mirrored and RAID-5. There are some additional limitations on operations with dynamic and GPT disks:
Creation of Acronis Secure Zone on dynamic disks is not supported
Recovery of a dynamic volume as a dynamic volume with manual resizing is not supported
Try&Decide® cannot be used for protecting dynamic and GPT disks
"Clone disk" operation is not supported for dynamic disks
Petite aparté avec les disques dynamiques : Ce qui n'est jamais mis en avant: Les soucis avec le disque dynamique
Concernant le disque dynamique , mais ce n'est que mon avis personnel : Une source d'ennuis.
Si un disque est défaillant on perds tout sur tous les disques
Un ex basique : On peux par ex étendre le volume d'un disque C vers le D en faisant croire au système que l'on n'a qu'un seul volume disque
En plus Nombre de programmes ne fonctionnent pas avec (partitionnement, récupération, ghost, ...) d'ailleurs c'est pour cela que l'on as des versions spécifiques chez les éditeurs (et toujours en version payante) comme chez AOEMI
AOEMI existe en 2 versions
- Partition assistant PRO
- Dynamic disk assistant
Au passage sur le forum il y a une version d'AOMEI PRO avec une clé (légale)
viewtopic.php?t=55895
APARTÉ avec l'outils de ADATA/XPG
Début 2024, ADATA a lâché ACRONIS (solution " CloneDrive") pour mettre en place sa propre solution de migration/Clonage et.. sauvegarde ainsi que d'une solution de restauration. On ne sait qui est derrière ni si il y a des fonctions tronquées ou manquantes
Particularité, la solution reste indépendante du programme SSD Toolbox, https://www.adata.com/en/support/downloads/
et contrairement à celle ci, qui dispose du soutien de Windows 7/8/8.1, elle ne fonctionnera que sous Windows 10 et 11
Lien direct de téléchargement : https://bit.ly/3THNtE1
Tous les détails à : https://www.touslesdrivers.com/index.ph ... _code=8703
CONCLUSION
il y a TOUJOURS des restrictions dans les programmes de clonage (gratuits/et/ou/Offerts)
Certains ont des soucis identiques avec l'outil de Samsung
Donc hormis à pousser à acheter la version"pro" je ne vois pas l'intérêt de fournir ces trucs incomplets de la part des constructeurs de SSD
Il vaut mieux passer par d'autres outils (qui peuvent être en version d'essai et donc disposer d'autres paramètres)
Liste ci dessous dans la partie documentation
___________________________________
DOCUMENTATION SUR LE SITE
Tous les conseils pour basculer d'un disque dur vers un SSD
https://www.malekal.com/conseils-change ... e-hdd-ssd/
Résoudre les problèmes d’espace disque sur la partition système de Windows 10
https://www.malekal.com/resoudre-proble ... indows-10/
Redimensionner les partitions de disque
https://www.malekal.com/redimensionner- ... e-windows/
Et tout ce qui est lié au clonage (avec un tuto pour Linux)
https://www.malekal.com/tag/cloner-disque-dur/
Côté logiciel (attention en version gratuite il y a des limitations)
Macrium Reflect (qui est maintenant en Français) avec TOUS les articles du site en rapport avec Macrium (liens dans le lien)
viewtopic.php?p=534414
CloneZilla
https://www.malekal.com/clonezilla-tuto ... de-disque/
DiskGenius
https://www.malekal.com/diskgenius-clon ... tuitement/
AOMEI Backupper standard
https://www.malekal.com/aomei-backupper ... tauration/
A noter que sur le forum on peut via une clé offerte et légale, basculer en version PRO Pour la dernière version et clé il faut aller au dernier message, mais il n'est pas inintéressant de lire les problèmes et corrections au fur et à mesures des versions. C'est impressionnant et n'inspire pas vraiment confiance
viewtopic.php?t=66229
Perso je n'ai que HD CLONE https://www.miray.de/public/documents/H ... ews.en.pdf
programme allemand peu connu mais que j'utilise depuis une dizaine d'années MAIS en version payante (seule possibilité si on veut tout exploiter et ne pas avoir de soucis)
Et il y a des options supplémentaires avec la version payante (juste un extrait car il y a la vitesse max en USBx aussi, ce qui me permet de cloner 1To par ex en 20 ou 25 minites, sur un autre SSD de 512Go et tout sera ajusté en fonction du contenu, ce qui n'est pas possible en version gratuite et ce souvent quelque soit le programme utilisé)
Côté matériel :
Ce que je conseille pour les clonages de SSD ou disques dur en 2,5p (que l'on trouve dans les ordinateurs portables par ex)
Ce n'est pas de la pub pour la marque ni pour le site de vente, car j'ai testé nombre de boitiers, à tous les prix, mais tous finissent par lâcher, soient du fait de la qualité des composants électroniques, soient de problèmes avec le câble, du connecteur, sans compter que l'UASP n était pas toujours de mise
Je clone chaque semaine, et ces dispositifs achetés en 2018 et 2019 fonctionnent toujours
Autre avantage : C'est plus simple d'utilisation que d'ouvrir un boitier etc et le prix oscille suivant la période entre 7 et 10 euros
https://www.amazon.fr/Sabrent-Adaptateu ... B011M8YACM
Vous ne pouvez pas consulter les pièces jointes insérées à ce message.
- Only Amiga... Was possible ! Lien https://forum.malekal.com/viewtopic.php?t=60830
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
- « Un problème sans solution est un problème mal posé. » (Albert Einstein)
- « Tous les patients mentent » (Théorème du Docteur House) Que ce soit consciemment ou inconsciemment
- Jeff Goldblum dans Informatic Park, professeur adepte de la théorie du chaos : « Vous utilisez un crack, un keygen ? Qu’est-ce qui pourrait mal tourner?? »
- Captcha : Il s'agit d'un ordinateur qui demande à un humain de prouver.. qu'il n'est pas un ordinateur ! (Les prémices du monde de demain)
- Dans le monde il y a deux sortes de gens : Ceux qui font des sauvegardes et .. Ceux qui vont faire des sauvegardes (Extrait du Credo.. Telle est la voie ! )
-
- Sujets similaires
- Réponses
- Vues
- Dernier message
-
- 3 Réponses
- 438 Vues
-
Dernier message par Parisien_entraide
-
-
🛡️ STEAM : Arnaques, Items volés, compte piraté, comment et quoi faire ?
par Parisien_entraide » » dans Papiers / Articles - 1 Réponses
- 95 Vues
-
Dernier message par Parisien_entraide
-
-
-
🛡️ TestMem5 -Pour tester la STABILITE de la mémoire et non les puces défectueuses
par Parisien_entraide » » dans Programmes utiles - 2 Réponses
- 400 Vues
-
Dernier message par Parisien_entraide
-
-
- 18 Réponses
- 1464 Vues
-
Dernier message par Parisien_entraide
-
- 0 Réponses
- 36 Vues
-
Dernier message par Parisien_entraide