論文の概要: XLB: Distributed Multi-GPU Lattice Boltzmann Simulation Framework for
Differentiable Scientific Machine Learning
- arxiv url: http://arxiv.org/abs/2311.16080v1
- Date: Mon, 27 Nov 2023 18:50:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 13:53:09.541878
- Title: XLB: Distributed Multi-GPU Lattice Boltzmann Simulation Framework for
Differentiable Scientific Machine Learning
- Title(参考訳): xlb: 微分可能な科学的機械学習のための分散マルチgpu格子ボルツマンシミュレーションフレームワーク
- Authors: Mohammadmehdi Ataei and Hesam Salehipour
- Abstract要約: JAXフレームワークの機能を利用するPythonベースの差別化可能なLBMライブラリであるXLBを紹介します。
このフレームワークは、新しい境界条件、衝突モデル、シミュレーション機能で容易に拡張できる。
XLBは数十億のセルでのシミュレーション処理に成功し、毎秒ギガスケールの格子更新を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The lattice Boltzmann method (LBM) has emerged as a prominent technique for
solving fluid dynamics problems due to its algorithmic potential for
computational scalability. We introduce XLB framework, a Python-based
differentiable LBM library which harnesses the capabilities of the JAX
framework. The architecture of XLB is predicated upon ensuring accessibility,
extensibility, and computational performance, enabling scaling effectively
across CPU, multi-GPU, and distributed multi-GPU systems. The framework can be
readily augmented with novel boundary conditions, collision models, or
simulation capabilities. XLB offers the unique advantage of integration with
JAX's extensive machine learning echosystem, and the ability to utilize
automatic differentiation for tackling physics-based machine learning,
optimization, and inverse problems. XLB has been successfully scaled to handle
simulations with billions of cells, achieving giga-scale lattice updates per
second. XLB is released under the permissive Apache-2.0 license and is
available on GitHub at https://github.com/Autodesk/XLB.
- Abstract(参考訳): 格子ボルツマン法 (LBM) は計算スケーラビリティのアルゴリズム的ポテンシャルから流体力学問題の解法として注目されている。
JAXフレームワークの機能を利用するPythonベースの差別化可能なLBMライブラリであるXLBフレームワークを紹介します。
XLBのアーキテクチャはアクセシビリティ、拡張性、計算性能の確保を前提としており、CPU、マルチGPU、分散マルチGPUシステム間で効果的にスケーリングできる。
このフレームワークは、新しい境界条件、衝突モデル、あるいはシミュレーション機能によって容易に拡張することができる。
XLBは、JAXの広範な機械学習エコーシステムとの統合のユニークな利点と、物理ベースの機械学習、最適化、逆問題に対処するために自動微分を利用する能力を提供する。
XLBは数十億のセルでのシミュレーション処理に成功し、毎秒ギガスケールの格子更新を実現している。
XLBはApache-2.0ライセンスでリリースされており、GitHubでhttps://github.com/Autodesk/XLBで入手できる。
関連論文リスト
- Ilargi: a GPU Compatible Factorized ML Model Training Framework [11.291108172692438]
Ilargiは、CPUとGPU環境間の自動因数分解を容易にする、コストのかかるリレーショナル結合を必要としない、新しい因数分解学習フレームワークである。
IlargiはMLベースのコスト推定器を組み込んで、データ特性、アルゴリズムの複雑さ、ハードウェア環境、およびそれらのインタラクションに基づいて、因子化と物質化をインテリジェントに選択する。
論文 参考訳(メタデータ) (2025-02-04T03:59:17Z) - Enabling High-Sparsity Foundational Llama Models with Efficient Pretraining and Deployment [56.44025052765861]
大規模言語モデル(LLM)は自然言語処理(NLP)に革命をもたらしたが、そのサイズは計算のボトルネックを生み出している。
そこで本研究では,高性能LLMの高精度かつ疎結合な基本バージョンを作成するための新しいアプローチを提案する。
スパース量子化LLaMAの最大8.6倍のCPU上での総高速化を示す。
論文 参考訳(メタデータ) (2024-05-06T16:03:32Z) - Distributed Inference and Fine-tuning of Large Language Models Over The
Internet [91.00270820533272]
大規模言語モデル(LLM)は、多くのNLPタスクで有用であり、サイズが向上する。
これらのモデルはハイエンドのハードウェアを必要とするため、ほとんどの研究者にはアクセスできない。
本研究では,システムスループットの最大化のためにデバイスを自動的に割り当てるフォールトトレラント推論アルゴリズムとロードバランシングプロトコルを開発する。
論文 参考訳(メタデータ) (2023-12-13T18:52:49Z) - JaxMARL: Multi-Agent RL Environments and Algorithms in JAX [105.343918678781]
我々は、GPU対応の効率と多くの一般的なMARL環境のサポートを組み合わせた、最初のオープンソースPythonベースのライブラリであるJaxMARLを紹介します。
我々の実験は、壁時計時間の観点から、JAXベースのトレーニングパイプラインが既存のアプローチの約14倍高速であることを示している。
また、人気の高いStarCraft Multi-Agent ChallengeのJAXベースの近似的な再実装であるSMAXを紹介し、ベンチマークする。
論文 参考訳(メタデータ) (2023-11-16T18:58:43Z) - sQUlearn -- A Python Library for Quantum Machine Learning [0.0]
sQUlearnが量子機械学習(QML)用のNISQ対応Pythonライブラリを導入
図書館の二重層アーキテクチャはQML研究者と実践者の両方に役立っている。
論文 参考訳(メタデータ) (2023-11-15T14:22:53Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - SequeL: A Continual Learning Library in PyTorch and JAX [50.33956216274694]
SequeLは継続学習のためのライブラリで、PyTorchとJAXフレームワークの両方をサポートする。
それは、正規化ベースのアプローチ、リプレイベースのアプローチ、ハイブリッドアプローチを含む、幅広い連続学習アルゴリズムのための統一インターフェースを提供する。
私たちはSequeLをオープンソースライブラリとしてリリースし、研究者や開発者が自身の目的で簡単にライブラリを実験し拡張することができます。
論文 参考訳(メタデータ) (2023-04-21T10:00:22Z) - BayesSimIG: Scalable Parameter Inference for Adaptive Domain
Randomization with IsaacGym [59.53949960353792]
BayesSimIGは、最近リリースされたNVIDIA IsaacGymと統合されたBayesSimの実装を提供するライブラリである。
BayesSimIGはNVIDIABoardと統合して、高次元の後方のスライスを簡単に視覚化する。
論文 参考訳(メタデータ) (2021-07-09T16:21:31Z) - Lettuce: PyTorch-based Lattice Boltzmann Framework [0.0]
格子ボルツマン法 (LBM) は計算流体力学などにおける効率的なシミュレーション手法である。
本稿では,PyTorch ベースの LBM コードである Lettuce について紹介する。
論文 参考訳(メタデータ) (2021-06-24T11:44:21Z) - LS-CAT: A Large-Scale CUDA AutoTuning Dataset [0.0]
GitHubからLS-CAT(Large-Scale AutoTuning)データセットの構築方法を紹介します。
私たちのデータセットは、線形代数に焦点を当てた19 683カーネルを含む。
ランタイムはNvidia GTX 980とNvidia T4システムのGPUベンチマークである。
論文 参考訳(メタデータ) (2021-03-26T11:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。