論文の概要: Distributed Learning: Sequential Decision Making in Resource-Constrained
Environments
- arxiv url: http://arxiv.org/abs/2004.06171v1
- Date: Mon, 13 Apr 2020 19:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 23:42:54.078727
- Title: Distributed Learning: Sequential Decision Making in Resource-Constrained
Environments
- Title(参考訳): 分散学習:資源制約環境における逐次決定
- Authors: Udari Madhushani and Naomi Ehrich Leonard
- Abstract要約: 本研究では,分散学習システムの性能向上に有効な通信戦略について検討する。
逐次意思決定における分散学習のための新しいコスト効率部分通信プロトコルを提案する。
- 参考スコア(独自算出の注目度): 5.33024001730262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study cost-effective communication strategies that can be used to improve
the performance of distributed learning systems in resource-constrained
environments. For distributed learning in sequential decision making, we
propose a new cost-effective partial communication protocol. We illustrate that
with this protocol the group obtains the same order of performance that it
obtains with full communication. Moreover, we prove that under the proposed
partial communication protocol the communication cost is $O(\log T)$, where $T$
is the time horizon of the decision-making process. This improves significantly
on protocols with full communication, which incur a communication cost that is
$O(T)$. We validate our theoretical results using numerical simulations.
- Abstract(参考訳): 本研究では,資源制約環境における分散学習システムの性能向上に有効な通信戦略について検討する。
逐次意思決定における分散学習のための新しいコスト効率部分通信プロトコルを提案する。
このプロトコルでは、グループの性能は完全な通信で得られるのと同じ順序になることを示す。
さらに、提案する部分通信プロトコルでは、通信コストがo(\log t)$であり、ここでは$t$が意思決定プロセスの時間軸であることを証明する。
これは完全な通信を持つプロトコルで大幅に改善され、通信コストは$o(t)$になる。
数値シミュレーションを用いて理論的結果を検証する。
関連論文リスト
- Hypergame Theory for Decentralized Resource Allocation in Multi-user Semantic Communications [60.63472821600567]
マルチユーザSCシステムにおける分散コンピューティングと通信資源割り当てのための新しいフレームワークを提案する。
通信資源と計算資源を効率的に割り当てることの課題は、Stackelbergハイパーゲーム理論の適用によって解決される。
シミュレーションの結果,提案したStackelbergハイパーゲームは通信資源と計算資源を効率的に利用することができることがわかった。
論文 参考訳(メタデータ) (2024-09-26T15:55:59Z) - Achieving Dimension-Free Communication in Federated Learning via Zeroth-Order Optimization [15.73877955614998]
本稿では,クライアント間で一定数のスカラー値を送信することで,通信コストを$mathscrO(d)$から$mathscrO(1)$に削減する,新しい通信アルゴリズムDeComFLを提案する。
古典的なディープラーニングトレーニングと大規模言語モデルの微調整の両方を含む経験的評価は、通信オーバーヘッドを大幅に削減することを示している。
論文 参考訳(メタデータ) (2024-05-24T18:07:05Z) - Optimal Data Splitting in Distributed Optimization for Machine Learning [85.99744701008802]
本研究は,サーバとローカルマシン間の分散データの最適比に着目し,通信コストとローカル計算のコストについて検討する。
ネットワークの実行時間は、一様分布と最適分布で比較される。
提案手法の優れた理論的性能を実験的に検証した。
論文 参考訳(メタデータ) (2024-01-15T16:30:12Z) - Fast Context Adaptation in Cost-Aware Continual Learning [10.515324071327903]
5GとBeyondネットワークは、より複雑な学習エージェントを必要とし、学習プロセス自体が、コミュニケーションや計算リソースのためにユーザと競合することになるかもしれない。
一方、学習プロセスは、効率的な戦略に迅速に収束するためのリソースを必要とし、一方、学習プロセスは、ユーザのデータプレーンから可能な限り少ないリソースを取らずに、ユーザのリソースを損なわないように、効率的でなければならない。
本稿では,データプレーンに割り当てられたリソースと学習用に確保されたリソースのバランスをとるための動的戦略を提案する。
論文 参考訳(メタデータ) (2023-06-06T17:46:48Z) - A Communication-Efficient Adaptive Algorithm for Federated Learning
under Cumulative Regret [22.80372994021181]
学習地平線全体を通して送信されるビットの総数で測定される通信コストを低くして,順序最適累積後悔を実現する分散オンライン学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-01-21T03:08:18Z) - Fundamental Limits of Communication Efficiency for Model Aggregation in
Distributed Learning: A Rate-Distortion Approach [54.311495894129585]
本研究では,分散学習におけるモデルアグリゲーションの通信コストの限界について,速度歪みの観点から検討する。
SignSGDでは,ワーカノード間の相関を利用した通信利得が重要であることがわかった。
論文 参考訳(メタデータ) (2022-06-28T13:10:40Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Provably Efficient Multi-Agent Reinforcement Learning with Fully
Decentralized Communication [3.5450828190071655]
分散探索は強化学習におけるサンプリングの複雑さを低減する。
各エージェントが分散メッセージパスプロトコルを使用すると,グループ性能が大幅に向上することを示す。
グループ学習手法により多くのエージェントと情報共有を組み込むことで、最適ポリシーへの収束が加速することを示す。
論文 参考訳(メタデータ) (2021-10-14T14:27:27Z) - CosSGD: Nonlinear Quantization for Communication-efficient Federated
Learning [62.65937719264881]
フェデレーション学習は、これらのクライアントのローカルデータを中央サーバに転送することなく、クライアント間での学習を促進する。
圧縮勾配降下のための非線形量子化を提案し、フェデレーションラーニングで容易に利用することができる。
本システムは,訓練過程の収束と精度を維持しつつ,通信コストを最大3桁まで削減する。
論文 参考訳(メタデータ) (2020-12-15T12:20:28Z) - Communication-Efficient and Distributed Learning Over Wireless Networks:
Principles and Applications [55.65768284748698]
機械学習(ML)は、第5世代(5G)通信システムなどのための有望なイネーブルである。
本稿では、関連するコミュニケーションとMLの原則を概観し、選択したユースケースでコミュニケーション効率と分散学習フレームワークを提示することを目的とする。
論文 参考訳(メタデータ) (2020-08-06T12:37:14Z) - Combining Federated and Active Learning for Communication-efficient
Distributed Failure Prediction in Aeronautics [0.0]
我々は,アクティブラーニングとフェデレートラーニングの学習パラダイムに依存する,新しい集中型分散学習アルゴリズムを提案する。
我々は,この手法を公開ベンチマークで評価し,その精度が非分散学習の最先端性能レベルに非常に近いことを示す。
論文 参考訳(メタデータ) (2020-01-21T13:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。