論文の概要: Distributed Perceptron under Bounded Staleness, Partial Participation, and Noisy Communication
- arxiv url: http://arxiv.org/abs/2601.10705v1
- Date: Thu, 15 Jan 2026 18:56:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.287122
- Title: Distributed Perceptron under Bounded Staleness, Partial Participation, and Noisy Communication
- Title(参考訳): 境界安定性, 部分参加, 雑音伝達下における分散パーセプトロン
- Authors: Keval Jain, Anant Raj, Saurav Prakash, Girish Varma,
- Abstract要約: クライアントはローカルなパーセプトロン更新を実行し、サーバは各通信ラウンドにやってくる更新を集約してグローバルモデルを形成する。
本研究では, 有限の誤差予算が, 軽度な新参加条件下での明示的な有限ラウンド安定化をもたらすことを示す。
- 参考スコア(独自算出の注目度): 9.036165374385739
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study a semi-asynchronous client-server perceptron trained via iterative parameter mixing (IPM-style averaging): clients run local perceptron updates and a server forms a global model by aggregating the updates that arrive in each communication round. The setting captures three system effects in federated and distributed deployments: (i) stale updates due to delayed model delivery and delayed application of client computations (two-sided version lag), (ii) partial participation (intermittent client availability), and (iii) imperfect communication on both downlink and uplink, modeled as effective zero-mean additive noise with bounded second moment. We introduce a server-side aggregation rule called staleness-bucket aggregation with padding that deterministically enforces a prescribed staleness profile over update ages without assuming any stochastic model for delays or participation. Under margin separability and bounded data radius, we prove a finite-horizon expected bound on the cumulative weighted number of perceptron mistakes over a given number of server rounds: the impact of delay appears only through the mean enforced staleness, whereas communication noise contributes an additional term that grows on the order of the square root of the horizon with the total noise energy. In the noiseless case, we show how a finite expected mistake budget yields an explicit finite-round stabilization bound under a mild fresh-participation condition.
- Abstract(参考訳): クライアントはローカルなパーセプトロン更新を実行し、サーバは各通信ラウンドにやってくる更新を集約してグローバルモデルを形成する。
この設定は、フェデレーションおよび分散デプロイメントにおける3つのシステム効果をキャプチャする。
(i)モデルの納入が遅れたこととクライアントの計算が遅れたことによるアップデート(両側バージョンラグ)
二 部分的参加(断続的顧客利用率)及び
三 ダウンリンクとアップリンクの双方における不完全な通信は、有界第二モーメントをもつ有効ゼロ平均付加雑音としてモデル化されている。
本研究では, 遅延や参加の確率モデルを仮定することなく, 更新年齢に対して所定の安定化プロファイルを確定的に強制する, パッドディングによる安定化バケットアグリゲーションと呼ばれるサーバ側アグリゲーションルールを導入する。
境界分離性および有界データ半径の下では、与えられたサーバラウンドの累積重み付きパーセプトロンミス数に制限される有限水平予測が証明される:遅延の影響は、平均的な強制的安定化によってのみ現れるが、通信ノイズは、水平線の平方根と全雑音エネルギーの順に増大する追加項に寄与する。
ノイズレスの場合、有限予測誤差予算が、軽度な再参加条件下での明示的な有限ラウンド安定化をもたらすことを示す。
関連論文リスト
- Revitalizing Canonical Pre-Alignment for Irregular Multivariate Time Series Forecasting [17.046106977768215]
IMTS予測のためのCanonical Pre-Alignment(CPA)に基づくコンパクトアーキテクチャであるKAFNetを提案する。
KAFNetは7.2$times$パラメータ削減と8.4$times$トレーニング推論アクセラレーションによって最先端の予測性能を達成する。
論文 参考訳(メタデータ) (2025-08-04T01:07:24Z) - SyncFed: Time-Aware Federated Learning through Explicit Timestamping and Synchronization [0.6749750044497732]
emphSyncFedは、明示的な同期とタイムスタンプを使用して、システム全体で共通の時間的参照を確立する、時間対応のFLフレームワークである。
静的性は、NTP(Network Time Protocol)の下で交換されたタイムスタンプに基づいて数値化され、サーバがクライアント更新の相対的な鮮度について推論することができる。
地理的に分散したテストベッドを用いた実験により, グローバルモデルが安定な時間的文脈で進化し, 精度と情報更新性が向上したことを示す。
論文 参考訳(メタデータ) (2025-06-11T12:29:20Z) - Adaptive Deadline and Batch Layered Synchronized Federated Learning [66.93447103966439]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散エッジデバイス間で協調的なモデルトレーニングを可能にする。
我々は,レイヤワイドアグリゲーションのために,ラウンド単位の期限とユーザ固有のバッチサイズを共同で最適化する新しいフレームワークADEL-FLを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:59:18Z) - Aggregation on Learnable Manifolds for Asynchronous Federated Optimization [3.8208848658169763]
曲線学習としてアグリゲーションを取り入れた幾何学的枠組みを導入する。
そこで我々は,線形アグリゲーションを低次曲率成分に置き換えたAsyncBezierを提案する。
これらの利得は、他の方法がより高いローカルな計算予算に割り当てられた場合でも維持されることを示す。
論文 参考訳(メタデータ) (2025-03-18T16:36:59Z) - MAB-Based Channel Scheduling for Asynchronous Federated Learning in Non-Stationary Environments [12.404264058659429]
フェデレートラーニングは、生のデータ交換なしでクライアント間での分散モデルトレーニングを可能にする。
無線実装では、頻繁なパラメータ更新は高い通信オーバーヘッドを引き起こす。
通信効率と公平性を向上しつつ,クライアントの安定性を低下させるための非同期フェデレーション学習スケジューリングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-03T09:05:04Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Asynchronous Federated Stochastic Optimization for Heterogeneous Objectives Under Arbitrary Delays [1.9766522384767224]
underlineAsynchunderlineRonous underlineExact underlineAveraging (textscAREA)
textscAREAは勾配推定よりもモデル残差を通信し、勾配反転への露出を減らす。
最初は、最低または最大ではなく、平均的なクライアント更新頻度でスケールするレートを取得しました。
論文 参考訳(メタデータ) (2024-05-16T14:22:49Z) - DASA: Delay-Adaptive Multi-Agent Stochastic Approximation [64.32538247395627]
我々は,N$エージェントが並列に動作し,中央サーバと通信することで,一般的な近似問題を高速化することを目的とした設定を考える。
遅延とストラグラーの効果を軽減するために,マルチエージェント近似のための遅延適応アルゴリズムである textttDASA を提案する。
論文 参考訳(メタデータ) (2024-03-25T22:49:56Z) - Multi-Armed Bandit Based Client Scheduling for Federated Learning [91.91224642616882]
統合学習(FL)は、通信オーバーヘッドの低減やデータのプライバシの保護など、ユビキタスな特性を特徴とする。
FLの各通信ラウンドでは、クライアントは自身のデータに基づいてローカルモデルを更新し、無線チャネル経由でローカル更新をアップロードする。
本研究は、無線チャネルの状態情報やクライアントの統計的特性を知ることなく、FLにおけるオンラインクライアントスケジューリング(CS)のためのマルチアームバンディットベースのフレームワークを提供する。
論文 参考訳(メタデータ) (2020-07-05T12:32:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。