論文の概要: DOPPLER: Dual-Policy Learning for Device Assignment in Asynchronous Dataflow Graphs
- arxiv url: http://arxiv.org/abs/2505.23131v1
- Date: Thu, 29 May 2025 06:04:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.706848
- Title: DOPPLER: Dual-Policy Learning for Device Assignment in Asynchronous Dataflow Graphs
- Title(参考訳): DOPPLER: 非同期データフローグラフにおけるデバイス割り当てのためのデュアルポリシ学習
- Authors: Xinyu Yao, Daniel Bourgeois, Abhinav Jain, Yuxin Tang, Jiawen Yao, Zhimin Ding, Arlei Silva, Chris Jermaine,
- Abstract要約: 本研究では,作業保守システムにおける実行時間を最小化するために,データフローグラフの操作をデバイスに割り当てる問題について検討する。
実験の結果,textscDopplerはタスク全体にわたって,すべてのベースラインメソッドより優れていることがわかった。
- 参考スコア(独自算出の注目度): 11.966335602618933
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of assigning operations in a dataflow graph to devices to minimize execution time in a work-conserving system, with emphasis on complex machine learning workloads. Prior learning-based methods often struggle due to three key limitations: (1) reliance on bulk-synchronous systems like TensorFlow, which under-utilize devices due to barrier synchronization; (2) lack of awareness of the scheduling mechanism of underlying systems when designing learning-based methods; and (3) exclusive dependence on reinforcement learning, ignoring the structure of effective heuristics designed by experts. In this paper, we propose \textsc{Doppler}, a three-stage framework for training dual-policy networks consisting of 1) a $\mathsf{SEL}$ policy for selecting operations and 2) a $\mathsf{PLC}$ policy for placing chosen operations on devices. Our experiments show that \textsc{Doppler} outperforms all baseline methods across tasks by reducing system execution time and additionally demonstrates sampling efficiency by reducing per-episode training time.
- Abstract(参考訳): 我々は、複雑な機械学習ワークロードに重点を置いて、作業保守システムにおける実行時間を最小化するために、データフローグラフの操作をデバイスに割り当てる問題について検討する。
従来の学習ベースの手法は、(1)バリア同期によってデバイスを未利用にするTensorFlowのようなバルク同期システムへの依存、(2)学習ベースの手法を設計する際の基盤システムのスケジューリングメカニズムの認識の欠如、(3)専門家が設計した効果的なヒューリスティックスの構造を無視した強化学習への排他的依存である。
本稿では,2つの政治ネットワークをトレーニングするための3段階フレームワークである「textsc{Doppler}」を提案する。
1) 操作を選択するための$\mathsf{SEL}$ポリシー
2) 選択した操作をデバイスに配置するための$\mathsf{PLC}$ポリシー。
実験の結果,システム実行時間を短縮し,エポソードごとのトレーニング時間を短縮し,サンプリング効率を向上させることで,タスク全体のベースラインメソッドの性能を向上することがわかった。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Energy-Efficient Computation with DVFS using Deep Reinforcement Learning for Multi-Task Systems in Edge Computing [6.447135136911933]
本研究は、強化学習に基づくDVFSを用いたマルチタスク、マルチデッドラインシナリオを備えた一般化システムについて研究する。
この方法は、Linuxカーネル内の時系列データを、強化学習に容易に解釈可能な情報に符号化する。
テスト結果から,Linuxの組込み知事と比較して3%~10%の省電力化が可能であった。
論文 参考訳(メタデータ) (2024-09-28T18:44:39Z) - Scheduling and Aggregation Design for Asynchronous Federated Learning
over Wireless Networks [56.91063444859008]
Federated Learning(FL)は、デバイス上でのトレーニングとサーバベースのアグリゲーションを組み合わせた、協調的な機械学習フレームワークである。
FLシステムにおけるストラグラー問題に対処するために,周期的アグリゲーションを用いた非同期FL設計を提案する。
年齢認識の集約重み付け設計は,非同期FL設定における学習性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-14T17:33:01Z) - Efficient Device Scheduling with Multi-Job Federated Learning [64.21733164243781]
本稿では,複数のジョブの並列学習プロセスを実現するための,新しいマルチジョブフェデレーション学習フレームワークを提案する。
コストを最小化しつつ、複数のジョブに対してデバイスをスケジュールする強化学習法とベイズ最適化法を提案する。
提案手法は,トレーニング時間(最大8.67倍高速)と精度(最大44.6%高)において,ベースラインアプローチよりも有意に優れていた。
論文 参考訳(メタデータ) (2021-12-11T08:05:11Z) - Dynamic Network-Assisted D2D-Aided Coded Distributed Learning [59.29409589861241]
本稿では,デバイス間のロードバランシングのための新しいデバイス・ツー・デバイス(D2D)支援型符号化学習手法(D2D-CFL)を提案する。
最小処理時間を達成するための最適圧縮率を導出し、収束時間との接続を確立する。
提案手法は,ユーザが継続的にトレーニングデータを生成するリアルタイム協調アプリケーションに有用である。
論文 参考訳(メタデータ) (2021-11-26T18:44:59Z) - Network Support for High-performance Distributed Machine Learning [17.919773898228716]
学習ノード(計算を行う)と情報ノード(データを提供する)の両方をキャプチャするシステムモデルを提案する。
次に,学習課題を完了させるために,学習ノードと情報ノードが協調して行うべき課題と,実行すべきイテレーション数を選択する問題を定式化する。
我々はDoubleClimbというアルゴリズムを考案し、1+1/|I|競合解を見つけることができる。
論文 参考訳(メタデータ) (2021-02-05T19:38:57Z) - Optimal Task Assignment to Heterogeneous Federated Learning Devices [0.0]
本研究では,各デバイスがトレーニングに使用するデータ量を制御することにより,フェデレート学習ラウンドの期間を最小化する問題について検討する。
OLARというメイクタイムアルゴリズムを提案し、最適なスケジュールを提供することを示す。
この結果から,OLARは少ない実行時間で最適解を提供することがわかった。
論文 参考訳(メタデータ) (2020-10-01T07:58:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。