論文の概要: XLB: A Differentiable Massively Parallel Lattice Boltzmann Library in
Python
- arxiv url: http://arxiv.org/abs/2311.16080v2
- Date: Tue, 12 Dec 2023 21:16:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 23:24:39.195323
- Title: XLB: A Differentiable Massively Parallel Lattice Boltzmann Library in
Python
- Title(参考訳): xlb: pythonで拡張可能な超並列格子ボルツマンライブラリ
- Authors: Mohammadmehdi Ataei and Hesam Salehipour
- Abstract要約: JAX プラットフォームをベースとした Python ベースの差別化可能な LBM ライブラリである XLB ライブラリを紹介する。
XLBの差別化性とデータ構造は、広範囲にわたるJAXベースの機械学習エコシステムと互換性がある。
XLBは数十億のセルでのシミュレーション処理に成功し、毎秒ギガスケールの格子更新を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The lattice Boltzmann method (LBM) has emerged as a prominent technique for
solving fluid dynamics problems due to its algorithmic potential for
computational scalability. We introduce XLB library, a Python-based
differentiable LBM library based on the JAX platform. The architecture of XLB
is predicated upon ensuring accessibility, extensibility, and computational
performance, enabling scaling effectively across CPU, TPU, multi-GPU, and
distributed multi-GPU or TPU systems. The library can be readily augmented with
novel boundary conditions, collision models, or multi-physics simulation
capabilities. XLB's differentiability and data structure is compatible with the
extensive JAX-based machine learning ecosystem, enabling it to address
physics-based machine learning, optimization, and inverse problems. XLB has
been successfully scaled to handle simulations with billions of cells,
achieving giga-scale lattice updates per second. XLB is released under the
permissive Apache-2.0 license and is available on GitHub at
https://github.com/Autodesk/XLB.
- Abstract(参考訳): 格子ボルツマン法 (LBM) は計算スケーラビリティのアルゴリズム的ポテンシャルから流体力学問題の解法として注目されている。
JAXプラットフォームに基づいたPythonベースの差別化可能なLBMライブラリであるXLBライブラリを紹介します。
XLBのアーキテクチャはアクセシビリティ、拡張性、計算性能の確保に重点を置いており、CPU、TPU、マルチGPU、分散マルチGPUまたはTPUシステム間で効果的にスケーリングできる。
このライブラリは、新しい境界条件、衝突モデル、あるいはマルチ物理シミュレーション機能で容易に拡張できる。
xlbの差別化性とデータ構造は、広範なjaxベースの機械学習エコシステムと互換性があり、物理ベースの機械学習、最適化、逆問題に対処することができる。
XLBは数十億のセルでのシミュレーション処理に成功し、毎秒ギガスケールの格子更新を実現している。
XLBはApache-2.0ライセンスでリリースされており、GitHubでhttps://github.com/Autodesk/XLBで入手できる。
関連論文リスト
- Distributed Inference and Fine-tuning of Large Language Models Over The
Internet [91.00270820533272]
大規模言語モデル(LLM)は、多くのNLPタスクで有用であり、サイズが向上する。
これらのモデルはハイエンドのハードウェアを必要とするため、ほとんどの研究者にはアクセスできない。
本研究では,システムスループットの最大化のためにデバイスを自動的に割り当てるフォールトトレラント推論アルゴリズムとロードバランシングプロトコルを開発する。
論文 参考訳(メタデータ) (2023-12-13T18:52:49Z) - JaxMARL: Multi-Agent RL Environments in JAX [107.7560737385902]
我々は、使いやすさとGPU有効性を組み合わせた最初のオープンソースコードベースであるJaxMARLを紹介します。
私たちの実験によると、JAXベースのトレーニングパイプラインの実行は、既存のアプローチよりも最大で12500倍高速です。
また、人気のあるStarCraft Multi-Agent Challengeのベクトル化、単純化されたバージョンであるSMAXを紹介し、ベンチマークする。
論文 参考訳(メタデータ) (2023-11-16T18:58:43Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - SequeL: A Continual Learning Library in PyTorch and JAX [50.33956216274694]
SequeLは継続学習のためのライブラリで、PyTorchとJAXフレームワークの両方をサポートする。
それは、正規化ベースのアプローチ、リプレイベースのアプローチ、ハイブリッドアプローチを含む、幅広い連続学習アルゴリズムのための統一インターフェースを提供する。
私たちはSequeLをオープンソースライブラリとしてリリースし、研究者や開発者が自身の目的で簡単にライブラリを実験し拡張することができます。
論文 参考訳(メタデータ) (2023-04-21T10:00:22Z) - Going faster to see further: GPU-accelerated value iteration and
simulation for perishable inventory control using JAX [5.856836693166898]
我々はPythonライブラリJAXを使って、ハイレベルなAPIで基礎となるMarkov決定プロセスの反復とシミュレータを実装しています。
提案手法は,従来は実現不可能あるいは現実的と考えられていた設定に値反復の使用を拡張できる。
我々は、複数の候補ポリシーパラメータの並列評価を可能にするJAXのシミュレーション最適化を用いて、最適補充ポリシーの性能をポリシーと比較した。
論文 参考訳(メタデータ) (2023-03-19T14:20:44Z) - FlexGen: High-Throughput Generative Inference of Large Language Models
with a Single GPU [89.2451963569343]
FlexGenは、単一のコモディティGPU上で大きな言語モデル(LLM)推論を実行するための世代エンジンである。
1つの16GB GPU上でOPT-175Bを実行する場合、FlexGenは最先端のオフロードシステムに比べてスループットが大幅に向上する。
HELMベンチマークでは、FlexGenは7つの代表サブシナリオに16GBのGPUで30Bモデルを21時間でベンチマークすることができる。
論文 参考訳(メタデータ) (2023-03-13T05:19:28Z) - BayesSimIG: Scalable Parameter Inference for Adaptive Domain
Randomization with IsaacGym [59.53949960353792]
BayesSimIGは、最近リリースされたNVIDIA IsaacGymと統合されたBayesSimの実装を提供するライブラリである。
BayesSimIGはNVIDIABoardと統合して、高次元の後方のスライスを簡単に視覚化する。
論文 参考訳(メタデータ) (2021-07-09T16:21:31Z) - Lettuce: PyTorch-based Lattice Boltzmann Framework [0.0]
格子ボルツマン法 (LBM) は計算流体力学などにおける効率的なシミュレーション手法である。
本稿では,PyTorch ベースの LBM コードである Lettuce について紹介する。
論文 参考訳(メタデータ) (2021-06-24T11:44:21Z) - LS-CAT: A Large-Scale CUDA AutoTuning Dataset [0.0]
GitHubからLS-CAT(Large-Scale AutoTuning)データセットの構築方法を紹介します。
私たちのデータセットは、線形代数に焦点を当てた19 683カーネルを含む。
ランタイムはNvidia GTX 980とNvidia T4システムのGPUベンチマークである。
論文 参考訳(メタデータ) (2021-03-26T11:33:48Z) - A Fortran-Keras Deep Learning Bridge for Scientific Computing [6.768544973019004]
ソフトウェアライブラリであるFortran-Keras Bridge(FKB)を導入する。
本稿は、FKBが提供するいくつかのユニークな機能、例えば、カスタマイズ可能なレイヤ、損失関数、ネットワークアンサンブルについて述べる。
本稿は,地球規模の気候シミュレーションに対する実験的アプローチの堅牢性に関するオープンな疑問にFKBを適用したケーススタディで締めくくっている。
論文 参考訳(メタデータ) (2020-04-14T15:10:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。