Durante años, los fabricantes de unidades de estado sólido (SSD) han promovido la idea de que los modelos con la misma capacidad y tecnología son prácticamente equivalentes. Sin embargo, un estudio reciente de la Universidad Técnica de Múnich y la Universidad de Copenhague ha revelado que esta percepción es engañosa. Dos SSD aparentemente idénticos pueden mostrar un comportamiento radicalmente diferente bajo cargas de trabajo reales.
La investigación, publicada en los Proceedings of the VLDB Endowment, presenta un nuevo benchmark –SSD-iq– que pone al descubierto datos ocultos que las pruebas tradicionales no logran reflejar. La pregunta central es si realmente importa qué SSD se elige para un sistema de bases de datos. Hasta ahora, las decisiones se basaban en métricas estándar como lecturas y escrituras secuenciales, y operaciones aleatorias por segundo. Sin embargo, estas métricas no logran capturar fenómenos importantes como la amplificación de escritura (WAF) o la latencia bajo carga.
Los experimentos realizados en nueve SSD de los principales fabricantes, incluidas unidades de la nube de AWS, revelaron diferencias de hasta 2,5 veces en WAF y un aumento de latencias de microsegundos a milisegundos, incluso en modelos con especificaciones similares.
Uno de los descubrimientos más significativos fue el impacto del WAF. Mientras que los discos duros tradicionales pueden escribir en el mismo sitio, un SSD debe borrar bloques completos y recolocar páginas válidas, lo que genera escrituras adicionales invisibles para el usuario. En algunos casos, el WAF puede ser hasta seis veces mayor de lo que el sistema operativo considera, lo que afecta la vida útil del SSD y aumenta los costes de reposición.
Además, las cargas con acceso sesgado, comunes en bases de datos, no mejoraron el WAF y, en muchos modelos, lo empeoraron. Esto sugiere que algunos controladores utilizan algoritmos básicos de gestión de memoria, incapaces de manejar patrones de acceso complejos.
Otro punto crítico es la latencia bajo carga. Mientras que las especificaciones técnicas indican tiempos de lectura de 75-80 μs y escrituras de 15 μs, algunos modelos bajo carga sostenida mostraron latencias de más de 10 ms. Este aumento puede ser devastador para aplicaciones que dependen de confirmaciones rápidas en los registros de transacciones.
Para abordar estas deficiencias, se desarrolló el benchmark SSD-iq, que introduce métricas críticas para entornos de bases de datos y centros de datos. Este conjunto de pruebas, disponible en GitHub, permite medir la WAF real, latencia bajo carga, rendimiento en accesos sesgados y sobreaprovisionamiento (OP), ofreciendo una representación más precisa del comportamiento de los SSD.
En pruebas comparativas entre modelos similares, como Samsung PM9A3 y Micron 7450 PRO, se descubrieron diferencias significativas en estabilidad de latencia y WAF, lo que demuestra que la elección del SSD no es trivial.
El estudio también destaca las implicaciones sostenibles. Un SSD reemplazado prematuramente contribuye a aumentar los residuos electrónicos y el consumo energético relacionado con su fabricación. Avances en tecnologías como ZNS y FDP permitirán que el anfitrión colabore en la gestión de datos, mitigando en gran medida estos problemas.
En conclusión, el estudio devela que los SSD no son intercambiables. SSD-iq proporciona, por primera vez, una herramienta para medir lo que realmente importa en términos de rendimiento y sostenibilidad. Si la industria adopta este benchmark, podríamos estar viendo un cambio de paradigma en cómo evaluamos y seleccionamos dispositivos de almacenamiento en la era actual.
Más información y referencias en Noticias Cloud.