通过仿真模拟来增强科研的设计、制造和测试精度,提高科研效率,通过数字量化科研指标实现精准优化;通过分子动力学来模拟分子、原子体系的运动……这些看似科幻的场景,随着技术的发展,已经成为科研领域的热点课题,而这一切的背后,离不开HPC的支持。
在科研教育步入信息化的今天,建设支持复杂场景高性能运算的公共计算平台,为师生提供基于HPC技术的科研与教学实践,成为当下高校科研建设的核心诉求之一。北京大学高性能计算校级公共平台于2016年成立,面向全校提供高性能科学与工程计算服务,满足各学科领域对于大规模数据处理和大规模科学计算的需求。
但随着科研任务的增多,处理大规模复杂运算的需求越来越强,该公共计算平台开始面临挑战:作为学校重要科研支撑条件,北京大学高性能计算平台未名一号集群从2019年开始,常年处于排队状态,集群满负载运行;此外计算平台支持应用包括数学、统计学、物理学、化学以及深度学习、大气海洋环境、新能源、新材料,等多学科多场景。如何为师生提供一套高性能、高可靠、简便安全的计算服务,用于解决计算密集型、海量数据处理等业务,成为急需解决的问题。
结合多年经验,超聚变提供的FusionOne HPC解决方案,满足高性能、高能效比、高扩展性的应用场景需求,助力北京大学高性能计算平台搭建未名二号集群。
科研工作离不开强大的算力基础平台,其核心内容是处理器的浮点运算能力和内存性能以及多节点并行时,节点间的低延迟通信。
未名二号计算集群由264台CPU计算节点和30台GPU计算节点组成,可提供1.56PFLOPs双精度浮点运算能力,且支持平滑扩容。该解决方案的高性能存储则使用Lustre并行文件系统,提供不低于4.5PB可用容量,读写30GB/s带宽。
随着计算效率的提升,各大高校计算集群功耗也随之飙涨,传统散热方式导致PUE水涨船高。对此,超聚变提供液冷数据中心解决方案,支持CPU和内存液冷散热,支持50ºC温水散热。全液冷方案,散热比高达100%,PUE低于1.1;依托于强大的散热能力,液冷方案能够为大规模并行计算提供高效稳定的算力。
超聚变助力北京大学高性能计算平台搭建未名二号计算集群,除了为北大师生提供了一套高性能、高质量的计算平台,助力北大科研成果的落地转化外,更与北大在数据密集型计算方面,就如何通过网络拓扑、态势感知优化提升计算性能进行了合作探索,为促进HPC在各行各业的应用和推广做了大量积累和研究。未来,超聚变将凭借坚实的技术积累,持续为高校和科研机构带来更多可靠的产品和解决方案。