論文の概要: Event-Triggered Gossip for Distributed Learning
- arxiv url: http://arxiv.org/abs/2602.19116v1
- Date: Sun, 22 Feb 2026 10:13:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.489266
- Title: Event-Triggered Gossip for Distributed Learning
- Title(参考訳): 分散学習のためのイベントトリガーゴシップ
- Authors: Zhiyuan Zhai, Xiaojun Yuan, Wei Ni, Xin Wang, Rui Zhang, Geoffrey Ye Li,
- Abstract要約: 我々は,ノード間通信を減らすために,分散学習のためのイベントトリガー型ゴシップフレームワークを開発した。
従来のフルテキスト・オブ・ザ・アート分散学習法と比較して,bf71.61%を限界性能損失のみで分析する。
- 参考スコア(独自算出の注目度): 61.70659996356528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While distributed learning offers a new learning paradigm for distributed network with no central coordination, it is constrained by communication bottleneck between nodes. We develop a new event-triggered gossip framework for distributed learning to reduce inter-node communication overhead. The framework introduces an adaptive communication control mechanism that enables each node to autonomously decide in a fully decentralized fashion when to exchange model information with its neighbors based on local model deviations. We analyze the ergodic convergence of the proposed framework under noconvex objectives and interpret the convergence guarantees under different triggering conditions. Simulation results show that the proposed framework achieves substantially lower communication overhead than the state-of-the-art distributed learning methods, reducing cumulative point-to-point transmissions by \textbf{71.61\%} with only a marginal performance loss, compared with the conventional full-communication baseline.
- Abstract(参考訳): 分散学習は、中央調整のない分散ネットワークに新しい学習パラダイムを提供するが、ノード間の通信ボトルネックによって制約される。
我々は,ノード間通信のオーバーヘッドを軽減するために,分散学習のためのイベントトリガー型ゴシップフレームワークを開発した。
このフレームワークは適応的な通信制御機構を導入し、各ノードが、局所的なモデル偏差に基づいて、モデル情報を隣人と交換するときに、完全に分散化された方法で自律的に決定できるようにする。
提案手法のエルゴード収束を非凸目的下で解析し,異なるトリガ条件下での収束保証を解釈する。
シミュレーションの結果,提案手法は現状の分散学習法に比べて通信オーバーヘッドを著しく低減し,従来の全通信ベースラインに比べて限界性能損失のみを伴って累積的なポイント・ツー・ポイント・トランスミッションを削減できることが示唆された。
関連論文リスト
- Local adapt-then-combine algorithms for distributed nonsmooth optimization: Achieving provable communication acceleration [50.67878993903822]
通信効率のよいAdapt-Then-Combine (ATC) フレームワークであるFlexATCを提案する。
ローカル更新がATCベースの分散アルゴリズムの通信高速化につながることを示すのはこれが初めてである。
論文 参考訳(メタデータ) (2026-02-18T02:47:05Z) - Stabilizing Decentralized Federated Fine-Tuning via Topology-Aware Alternating LoRA [20.00589625873043]
textttTAD-LoRAは、フェデレーション学習のサーバレス版である。
我々は, TextttTAD-LoRA が強い連結トポロジにおいて競合し, 適度かつ弱い連結トポロジの下で明確なゲインをもたらすことを示す。
論文 参考訳(メタデータ) (2026-01-31T01:57:53Z) - On the Surprising Effectiveness of a Single Global Merging in Decentralized Learning [26.210904912836355]
我々は、グローバルな一般化を改善するために、どのようにコミュニケーションをスケジュールするかを検討する。
単一のグローバルマージによって実装された最終段階における完全接続通信は、一般化性能を著しく向上させることができる。
論文 参考訳(メタデータ) (2025-07-09T04:56:56Z) - Latent Diffusion Model Based Denoising Receiver for 6G Semantic Communication: From Stochastic Differential Theory to Application [11.385703484113552]
生成人工知能(GAI)を利用した新しい意味コミュニケーションフレームワークを提案する。
意味的特徴抽出のための変分オートエンコーダを組み合わせた潜在拡散モデル(LDM)に基づくセマンティックコミュニケーションフレームワークを提案する。
提案システムはゼロショットの一般化をサポートし,低SNRおよびアウト・オブ・ディストリビューション条件下での優れた性能を実現する訓練自由フレームワークである。
論文 参考訳(メタデータ) (2025-06-06T03:20:32Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - Networked Communication for Decentralised Agents in Mean-Field Games [59.01527054553122]
平均フィールドゲームフレームワークにネットワーク通信を導入する。
当社のアーキテクチャは、中央集権型と独立した学習ケースの双方で保証されていることを証明しています。
ネットワーク化されたアプローチは、障害の更新や人口規模の変化に対する堅牢性という点において、両方の選択肢に対して大きなメリットがあることが示されています。
論文 参考訳(メタデータ) (2023-06-05T10:45:39Z) - Decentralized Event-Triggered Federated Learning with Heterogeneous
Communication Thresholds [12.513477328344255]
ネットワークグラフトポロジ上での非同期なイベントトリガーによるコンセンサス反復による分散モデルアグリゲーションのための新しい手法を提案する。
本手法は,分散学習とグラフコンセンサス文学における標準的な仮定の下で,グローバルな最適学習モデルを実現することを実証する。
論文 参考訳(メタデータ) (2022-04-07T20:35:37Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。