論文の概要: Diffusion Learning with Partial Agent Participation and Local Updates
- arxiv url: http://arxiv.org/abs/2505.11307v1
- Date: Fri, 16 May 2025 14:33:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:15.277727
- Title: Diffusion Learning with Partial Agent Participation and Local Updates
- Title(参考訳): 部分的エージェント参加と局所更新による拡散学習
- Authors: Elsa Rizk, Kun Yuan, Ali H. Sayed,
- Abstract要約: 拡散学習(diffusion learning)は、エッジデバイスに高度なインテリジェンスを提供するフレームワークである。
本稿では,局所的更新と部分的エージェント参加を考慮した拡散学習手法を提案する。
得られたアルゴリズムは平均二乗誤差感覚において安定であり、平均二乗偏差(MSD)性能の厳密な解析を提供する。
- 参考スコア(独自算出の注目度): 42.04873382667665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion learning is a framework that endows edge devices with advanced intelligence. By processing and analyzing data locally and allowing each agent to communicate with its immediate neighbors, diffusion effectively protects the privacy of edge devices, enables real-time response, and reduces reliance on central servers. However, traditional diffusion learning relies on communication at every iteration, leading to communication overhead, especially with large learning models. Furthermore, the inherent volatility of edge devices, stemming from power outages or signal loss, poses challenges to reliable communication between neighboring agents. To mitigate these issues, this paper investigates an enhanced diffusion learning approach incorporating local updates and partial agent participation. Local updates will curtail communication frequency, while partial agent participation will allow for the inclusion of agents based on their availability. We prove that the resulting algorithm is stable in the mean-square error sense and provide a tight analysis of its Mean-Square-Deviation (MSD) performance. Various numerical experiments are conducted to illustrate our theoretical findings.
- Abstract(参考訳): 拡散学習(diffusion learning)は、エッジデバイスに高度なインテリジェンスを提供するフレームワークである。
データをローカルに処理し分析することで、各エージェントがすぐ隣のエージェントと通信できるようにすることで、拡散はエッジデバイスのプライバシを効果的に保護し、リアルタイム応答を可能にし、中央サーバへの依存を減らす。
しかし、従来の拡散学習はイテレーション毎にコミュニケーションに依存しており、特に大規模学習モデルでは通信オーバーヘッドが発生する。
さらに、エッジデバイス固有のボラティリティは、停電や信号損失から生じるものであり、近隣のエージェント間の信頼性の高い通信に困難をもたらす。
そこで本研究では,局所的更新と部分的エージェント参加を考慮した拡散学習手法について検討する。
ローカル更新は通信頻度を削減し、部分エージェントの参加は、その可用性に基づいたエージェントのインクルージョンを可能にする。
得られたアルゴリズムは平均二乗誤差感覚において安定であり、平均二乗偏差(MSD)性能の厳密な解析を提供する。
理論的知見を示すために, 種々の数値実験を行った。
関連論文リスト
- Collaborative Value Function Estimation Under Model Mismatch: A Federated Temporal Difference Analysis [55.13545823385091]
フェデレーション強化学習(FedRL)は、エージェント間のデータ交換を防止し、データのプライバシを維持しながら協調学習を可能にする。
現実世界のアプリケーションでは、各エージェントは若干異なる遷移ダイナミクスを経験し、固有のモデルミスマッチを引き起こす。
我々は、中程度のレベルの情報共有でも、環境固有のエラーを著しく軽減できることを示した。
論文 参考訳(メタデータ) (2025-03-21T18:06:28Z) - Distributed Event-Based Learning via ADMM [11.461617927469316]
エージェントがネットワーク上で情報を交換することで目的関数を最小化する,グローバルな分散学習問題を考える。
本手法は, (i) 必要なときにのみ通信をトリガーすることでコミュニケーションを大幅に削減し, (ii) 異なるエージェント間でのデータ分配を行う。
論文 参考訳(メタデータ) (2024-05-17T08:30:28Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Asynchronous Message-Passing and Zeroth-Order Optimization Based Distributed Learning with a Use-Case in Resource Allocation in Communication Networks [11.182443036683225]
分散学習と適応は大きな関心を集め、機械学習信号処理に広く応用されている。
本稿では、エージェントが共通のタスクに向けて協調するシナリオに焦点を当てる。
送信者として働くエージェントは、グローバルな報酬を最大化するために、それぞれのポリシーを共同で訓練する。
論文 参考訳(メタデータ) (2023-11-08T11:12:27Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - FedDec: Peer-to-peer Aided Federated Learning [15.952956981784219]
フェデレートラーニング(FL)は、プライバシを損なうことなく、複数のエージェントのデータを活用する機械学習モデルのトレーニングを可能にした。
FLは、データ不均一性、部分的なデバイス参加、サーバとの頻繁な通信に弱いことが知られている。
FLの局所勾配更新間でのピアツーピア通信とパラメータ平均化をインターリーブするアルゴリズムであるFedDecを提案する。
論文 参考訳(メタデータ) (2023-06-11T16:30:57Z) - Adversarial Attacks On Multi-Agent Communication [80.4392160849506]
現代の自律システムはすぐに大規模に展開され、協調型マルチエージェントシステムの可能性を広げる。
このような利点は、セキュリティ侵害に対して脆弱であることが示されている通信チャネルに大きく依存している。
本稿では,エージェントが学習した中間表現を共有してコミュニケーションする新しいマルチエージェント環境において,このような攻撃を探索する。
論文 参考訳(メタデータ) (2021-01-17T00:35:26Z) - Learning to Communicate and Correct Pose Errors [75.03747122616605]
本稿では、V2VNetで提案された設定について検討し、近くにある自動運転車が共同で物体検出と動き予測を協調的に行う方法を提案する。
本稿では,コミュニケーションを学習し,潜在的な誤りを推定し,それらの誤りについてコンセンサスを得るための新しいニューラルネットワーク推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-10T18:19:40Z) - Distributed Inference with Sparse and Quantized Communication [7.155594644943642]
ネットワーク内のエージェントが未知の状態によって生成されたプライベート信号のストリームを観測する分散推論の問題を考察する。
本研究では,各仮説に対する低信念を拡散する原理に基づく,イベントトリガー型分散学習ルールを開発する。
逐次量子化器の範囲を精製することにより、各エージェントは1ドルビットで各仮説の信念を符号化しながら、ほぼ確実に指数関数的に真理を学習できることを示す。
論文 参考訳(メタデータ) (2020-04-02T23:08:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。