- El software Sanduck optimiza muchos SSD para evitar ralentizaciones debido a la recolección de basura
- Un sistema de control de dos niveles redirige las cargas de trabajo entre unidades agrupadas en tiempo real
- Las ganancias de rendimiento se acercan a los límites teóricos, pero dependen de grandes entornos de almacenamiento en clústeres.
Investigadores del MIT y la Universidad de Tufts han desarrollado un sistema de gestión de almacenamiento llamado Sanduck que acerca los SSD agrupados a sus límites teóricos. El proyecto aborda un problema de larga data en grandes clústeres de almacenamiento donde unidades idénticas rara vez funcionan de manera idéntica.
Las unidades de estado sólido son lentas por varias razones, incluidos los ciclos internos de recolección de basura y la naturaleza más lenta de las operaciones de escritura en comparación con las lecturas. Estas ralentizaciones pueden extenderse a las cargas de trabajo cuando varias aplicaciones comparten el mismo grupo de almacenamiento.
En lugar de dejar que cada SSD maneje los problemas de rendimiento por sí solo, el sistema divide las responsabilidades de control en dos capas integradas que administran la actividad en todo el grupo de unidades.
El artículo continúa a continuación.
Liberando el potencial de los SSD para centros de datos
como Bloques y archivos Según el informe, un controlador central recopila telemetría de rendimiento de cada SSD grande y modifica las opciones de sincronización aproximadamente 5 veces por segundo.
Los agentes locales dentro del servidor de almacenamiento proporcionan señales de rendimiento y alertas de congestión a medida que cambia el rendimiento.
Cuando una unidad comienza tareas de limpieza, como la recolección de basura, el sistema reduce su prioridad y transfiere el tráfico a unidades más saludables dentro del grupo. Ese redireccionamiento se produce sin requerir cambios en las aplicaciones que acceden al almacenamiento.
El enfoque se basa en técnicas que ya se utilizan en el almacenamiento empresarial, incluida la replicación de bloques para lecturas y escrituras estructuradas en registros que pueden aterrizar en cualquier dispositivo disponible.
Las pruebas incluyeron procesamiento de bases de datos, entrenamiento de redes neuronales, compresión de imágenes a gran escala y servicios de almacenamiento de latencia crítica, y se informó que el sistema ofrecía entre un 30 y un 82 por ciento más de rendimiento de entrada y salida sin procesar que los enfoques anteriores dirigidos a cuellos de botella únicos.
En todas las cargas de trabajo integradas, las ganancias en el rendimiento de las aplicaciones oscilaron entre el 12 y el 94 por ciento, con reducciones de latencia que alcanzaron el 88 por ciento. En algunos casos, el rendimiento del almacenamiento alcanzó casi 1,7 veces los niveles anteriores.
Las ganancias provienen enteramente del software, lo que significa que los SSD disponibles en el mercado se mantienen sin cambios. La sobrecarga de CPU y memoria para monitorear docenas de unidades por servidor se describe como mínima.
El documento titulado “Liberar el potencial de los SSD de centros de datos controlando la variabilidad del rendimiento” está disponible para su consulta aquí.
A pesar de las cifras de los titulares, no es algo que la mayoría de los consumidores puedan llevarse a casa. El diseño se basa en grandes grupos de SSD que funcionan junto con configuraciones de redes empresariales típicas en infraestructuras y centros de datos basados en Linux.
De ese efecto de agrupación es de donde provienen la mayoría de las mejoras de rendimiento. Un sistema de una sola unidad tendría pocos beneficios para cambiar las cargas de trabajo sin unidades adicionales.
Bloques y archivos señala que el trabajo se discutirá en el evento USENIX NSDI 2026 en mayo, donde los investigadores planean mostrar cómo la programación coordinada ayuda a resolver el comportamiento impredecible de SSD en grandes clústeres.
Siga TechRadar en Google News Y Agréganos como fuente preferida Recibe noticias, reseñas y opiniones de nuestros expertos en tu feed.