NVIDIA Modulus
一种用于开发物理机器学习神经网络模型的框架
NVIDIA Modulus 是一种神经网络框架,它以控制偏微分方程 (PDE) 形式将物理学的力量与数据相结合,以构建具有近乎实时的延迟的高保真参数替代模型。无论您是想着手解决 AI 驱动的物理问题,还是为复杂的非线性多物理系统设计数字孪生模型,NVIDIA Modulus 都可以为您的工作提供支持。
[演示]:借助 FourCastNet 加速极端天气预测
[演示]:使用 NVIDIA Modulus 和 Omniverse,实现西门子能源公司的 HRSG 数字孪生模拟
[演示]:使用尾流优化更大限度地增加风能发电
优势
可扩展性能
通过从单 GPU 扩展到多节点实施,更快地解决更重大的问题。
AI 工具套件
提供基础模组,用以开发将物理和数据相结合的物理机器学习替代模型。该框架可推广到不同的领域和用例:从工程模拟到生命科学,从前向模拟到反向/数据同化问题。
近乎实时的推理
提供参数化的系统表示,可近乎实时地处理多个场景,让您离线训练一次即可反复进行实时推理。
易于采用
包括供领域专家在更高抽象层面工作的 API。可将详细的参考应用作为起点,扩展至新应用。
Modulus 多 GPU 和多节点性能
NVIDIA Modulus 支持使用 Horovod 进行多 GPU 和多节点扩展。利用此功能,可以使用 NVIDIA 集合通信库 (NCCL) 和消息传递接口 (MPI) 进行聚合通信,从而支持多个进程,每个进程都以单个 GPU 为目标。
此图展示了在 4 个 NVIDIA DGX-1™ 系统中多达 32 个 NVIDIA V100 Tensor Core GPU 上运行的 Modulus 在处理现场可编程门阵列 (FPGA) 测试问题时展现出的弱扩展性能。从 1 个 GPU 到 32 个 GPU 的扩展效率超过 85%。这些数据使用 Modulus v. 21.06 收集。
跨多个 GPU 的 Modulus 弱扩展
特性
Modulus 是一种多物理框架,可推广到由参数化几何图形支持的多种配置。借助参数化几何图形,Modulus 可通过对所有配置的单一训练实现快速的设计空间探索。
PhysicsML 训练流程
Modulus 提供了一个框架,用于对 PDE 以及边界条件进行建模。从设置来自几何图形的输入张量到大规模训练,它均可提供端到端流程。
显式参数化
Modulus 提供了显式参数规格,用于训练具有一系列要学习的设计空间相关值的替代模型,以及同时推理多个场景。
新型神经网络架构
其中包括对基于物理信息的机器学习非常有效的精巧神经网络架构,例如傅里叶特征网络、正弦表示网络或傅里叶神经算子和自适应傅里叶神经算子。
有关 Modulus(以前称为 SimNet)的更多详细信息,请参阅 NVIDIA SimNet: An AI-Accelerated Multi-Physics Simulation Framework(NVIDIA SimNet:AI 加速的多物理模拟框架)。本文介绍了神经网络求解器方法、Modulus 架构以及有效求解 PDE 所需的特征。它还包括现实世界的许多用例,包括前向、参数化、存在扰动和用于工业设计优化的复杂 3D 几何图形的多物理模拟,以及传统求解器无法高效解决的反向和数据同化问题。
Omniverse 集成
在 22.03 版本中推出
Modulus 现已通过 Modulus 扩展程序与 NVIDIA Omniverse™ 集成,可用于将 Modulus 训练的模型的输出可视化。借助该扩展程序,您可以将输出结果导入可视化流程,用于常见的输出场景,例如流线和等值面。它还提供了一个接口,支持对设计变量和参数进行交互式探索,以推理新的系统行为并将其近乎实时地可视化。
Omniverse 集成文档