El CERN es una de las empresas científicas y de ingeniería más ambiciosas de la historia de la humanidad. El Gran Colisionador de Hadrones (LHC) es el acelerador de partículas más grande y energético del mundo, y los científicos lo utilizan para analizar pruebas de la estructura del mundo subatómico; en el proceso, el LHC es capaz de producir decenas de petabytes de datos cada año.
Recientemente, el CERN tuvo que actualizar sus sistemas informáticos de backend en preparación para la nueva fase experimental del LHC (Operación 3 del LHC). Se espera que para finales de 2025, esta fase genere 1 PB de datos cada día. Los sistemas de bases de datos anteriores ya no son adecuados para manejar los datos de "alta cardinalidad" producidos por los principales experimentos del colisionador, como el CMS.
El solenoide compacto de muones (CMS) es un detector universal en el Gran Colisionador de Hadrones con un amplio programa de física. Incluye el estudio del modelo estándar, incluido el bosón de Higgs, y la búsqueda de dimensiones y partículas adicionales que puedan formar la materia oscura. El CERN califica el experimento como una de las colaboraciones científicas más grandes de la historia, con la participación de alrededor de 5.500 personas de 241 instituciones en 54 países diferentes.
CMS y otros experimentos del Gran Colisionador de Hadrones se sometieron a una importante fase de actualización de 2018 a 2022 y ahora están listos para reanudar la colisión de partículas subatómicas durante el período de recopilación de datos de la Fase Operativa 3 de tres años. Durante el cierre, los expertos del CERN también realizaron importantes actualizaciones en los sistemas de detección y la infraestructura informática que respaldan el CMS.
Brij Kishor Jashal, un científico que trabaja con CMS, mencionó que su equipo recopiló 30 TB de datos en 30 días para monitorear el desempeño de la infraestructura. Explicó que esta etapa de operación resulta en una mayor luminosidad, lo que resulta en un aumento significativo en el volumen de datos. Los sistemas de monitoreo back-end anteriores se basaban en la base de datos de series temporales (TSDB) de código abierto InfluxDB y la base de datos de monitoreo Prometheus, que utilizaba algoritmos de compresión para procesar estos datos de manera eficiente.
Sin embargo, InfluxDB y Prometheus encontraron problemas de rendimiento, escalabilidad y confiabilidad, especialmente cuando se trata de datos de alta cardinalidad. La cardinalidad alta se refiere a la prevalencia de valores duplicados y la capacidad de volver a implementar la aplicación varias veces en nuevas instancias. Para abordar estos desafíos, el equipo de monitoreo de CMS decidió reemplazar InfluxDB y Prometheus con la base de datos VictoriaMetrics TSDB.
Ahora, VictoriaMetrics es a la vez el sistema de monitoreo y almacenamiento back-end de CMS, resolviendo efectivamente el problema de cardinalidad encontrado antes. Jashal señaló que el equipo de CMS actualmente está satisfecho con el desempeño del clúster y los servicios. Si bien todavía hay espacio para la escalabilidad, estos servicios se ejecutan en "modo de alta disponibilidad" dentro del clúster Kubernetes dedicado de CMS para brindar mayores garantías de confiabilidad. El centro de datos del CERN depende de los servicios OpenStack, que se ejecutan en un grupo de máquinas x86 robustas.
acceso:
Alibaba Cloud: vales universales de hasta 1888 yuanes disponibles de inmediato