論文の概要: Reinforcement Learning for Load-balanced Parallel Particle Tracing
- arxiv url: http://arxiv.org/abs/2109.05679v1
- Date: Mon, 13 Sep 2021 03:14:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:57:36.174581
- Title: Reinforcement Learning for Load-balanced Parallel Particle Tracing
- Title(参考訳): 負荷分散パラレル粒子追跡のための強化学習
- Authors: Jiayi Xu, Hanqi Guo, Han-Wei Shen, Mukund Raj, Skylar Wolfgang
Wurster, Tom Peterka
- Abstract要約: 本手法は,(1)ワークロード提供モデル,(2)高次ワークロード推定モデル,(3)通信コストモデルという3つの新しいコンポーネントを組み合わせる。
並列効率,負荷バランス,I/Oのコスト,最大16,384プロセッサの通信において並列粒子追跡性能が向上する。
- 参考スコア(独自算出の注目度): 14.348336673762107
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore an online learning reinforcement learning (RL) paradigm for
optimizing parallel particle tracing performance in distributed-memory systems.
Our method combines three novel components: (1) a workload donation model, (2)
a high-order workload estimation model, and (3) a communication cost model, to
optimize the performance of data-parallel particle tracing dynamically. First,
we design an RL-based workload donation model. Our workload donation model
monitors the workload of processes and creates RL agents to donate particles
and data blocks from high-workload processes to low-workload processes to
minimize the execution time. The agents learn the donation strategy on-the-fly
based on reward and cost functions. The reward and cost functions are designed
to consider the processes' workload change and the data transfer cost for every
donation action. Second, we propose an online workload estimation model, in
order to help our RL model estimate the workload distribution of processes in
future computations. Third, we design the communication cost model that
considers both block and particle data exchange costs, helping the agents make
effective decisions with minimized communication cost. We demonstrate that our
algorithm adapts to different flow behaviors in large-scale fluid dynamics,
ocean, and weather simulation data. Our algorithm improves parallel particle
tracing performance in terms of parallel efficiency, load balance, and costs of
I/O and communication for evaluations up to 16,384 processors.
- Abstract(参考訳): 分散メモリシステムにおける並列粒子追跡性能を最適化するオンライン学習強化学習(rl)パラダイムを検討する。
提案手法は,(1)ワークロード提供モデル,(2)高次ワークロード推定モデル,(3)通信コストモデルという3つの新しいコンポーネントを組み合わせて,データ並列粒子の動的トレース性能を最適化する。
まず、RLに基づくワークロード提供モデルの設計を行う。
我々のワークロード提供モデルは、プロセスのワークロードを監視し、高負荷プロセスから低負荷プロセスへのパーティクルやデータブロックを寄付するRLエージェントを作成し、実行時間を最小化する。
エージェントは報酬とコスト関数に基づいて寄付戦略をオンザフライで学習する。
報酬とコスト関数は、プロセスのワークロードの変更と、寄付アクションごとにデータ転送コストを考慮するように設計されている。
第2に、将来の計算におけるプロセスのワークロード分布をrlモデルが推定するために、オンラインワークロード推定モデルを提案する。
第3に,ブロックとパーティクルデータ交換の両コストを考慮した通信コストモデルを構築し,通信コストの最小化による効率的な決定を支援する。
本アルゴリズムは, 大規模流体力学, 海洋, 気象シミュレーションデータにおいて, 異なる流れの挙動に適応できることを実証する。
提案アルゴリズムは,並列効率,負荷バランス,I/Oのコスト,最大16,384プロセッサの通信性の観点から並列粒子追跡性能を向上する。
関連論文リスト
- Diffusion Models as Optimizers for Efficient Planning in Offline RL [47.0835433289033]
拡散モデルはオフラインの強化学習タスクにおいて強い競争力を示している。
本稿では,より高速な自己回帰モデルを提案する。
これにより、能力を犠牲にすることなく、より効率的な計画を達成することができます。
論文 参考訳(メタデータ) (2024-07-23T03:00:01Z) - Spreeze: High-Throughput Parallel Reinforcement Learning Framework [19.3019166138232]
Spreezeは強化学習のための軽量並列フレームワークである。
単一のデスクトップハードウェアリソースを効率よく利用し、スループット制限にアプローチする。
最大15,000Hzのサンプリングと370,000Hzのネットワーク更新フレームレートを達成することができる。
論文 参考訳(メタデータ) (2023-12-11T05:25:01Z) - Transfer of Reinforcement Learning-Based Controllers from Model- to
Hardware-in-the-Loop [1.8218298349840023]
強化学習は、自律的な訓練エージェントが複雑な制御タスクを実行する大きな可能性を秘めている。
組み込みシステム機能開発においてRLを効果的に利用するには、生成されたエージェントが現実世界のアプリケーションを扱う必要がある。
本研究は,Transfer Learning(TL)とX-in-the-Loop(XiL)シミュレーションを組み合わせることで,RLエージェントのトレーニングプロセスの高速化に重点を置いている。
論文 参考訳(メタデータ) (2023-10-25T09:13:12Z) - Parameter and Computation Efficient Transfer Learning for
Vision-Language Pre-trained Models [79.34513906324727]
本稿では,視覚言語事前学習モデルのためのパラメータと効率的な伝達学習(PCETL)を提案する。
そこで本研究では,新しい動的アーキテクチャスキップ(DAS)アプローチを効果的PCETLに適用する。
論文 参考訳(メタデータ) (2023-09-04T09:34:33Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - SE(3)-DiffusionFields: Learning smooth cost functions for joint grasp
and motion optimization through diffusion [34.25379651790627]
本研究では,データ駆動型SE(3)コスト関数を拡散モデルとして学習する手法を提案する。
我々は6DoFグルーピングのためのSE(3)拡散モデルの学習に重点を置いており、関節グルーピングと運動最適化のための新しい枠組みを生み出している。
論文 参考訳(メタデータ) (2022-09-08T14:50:23Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning [55.198301429316125]
機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急成長するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイスに分散した分散システム上でMLモデルをトレーニングする問題について検討する。
論文 参考訳(メタデータ) (2022-02-07T15:04:15Z) - Correlate-and-Excite: Real-Time Stereo Matching via Guided Cost Volume
Excitation [65.83008812026635]
本稿では,GCE ( Guided Cost Volume Excitation) を構築し,画像によって誘導されるコストボリュームの簡単なチャネル励磁により,性能が大幅に向上することを示す。
我々はCorrelate-and-Excite(CoEx)と呼ぶエンドツーエンドネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-12T14:32:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。