論文の概要: Robust Distributed Learning under Resource Constraints: Decentralized Quantile Estimation via (Asynchronous) ADMM
- arxiv url: http://arxiv.org/abs/2601.20571v1
- Date: Wed, 28 Jan 2026 13:09:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.937379
- Title: Robust Distributed Learning under Resource Constraints: Decentralized Quantile Estimation via (Asynchronous) ADMM
- Title(参考訳): 資源制約下でのロバストな分散学習:(非同期)ADMMによる分散量子推定
- Authors: Anna van Elst, Igor Colin, Stephan Clémençon,
- Abstract要約: 本稿では,分散中央値と量子推定のための新しいゴシップアルゴリズムAsylADMMを提案する。
提案アルゴリズムは,量子化に基づくトリミング,幾何的中央値推定,深度に基づくトリミングを可能にする。
- 参考スコア(独自算出の注目度): 2.6636053598505307
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Specifications for decentralized learning on resource-constrained edge devices require algorithms that are communication-efficient, robust to data corruption, and lightweight in memory usage. While state-of-the-art gossip-based methods satisfy the first requirement, achieving robustness remains challenging. Asynchronous decentralized ADMM-based methods have been explored for estimating the median, a statistical centrality measure that is notoriously more robust than the mean. However, existing approaches require memory that scales with node degree, making them impractical when memory is limited. In this paper, we propose AsylADMM, a novel gossip algorithm for decentralized median and quantile estimation, primarily designed for asynchronous updates and requiring only two variables per node. We analyze a synchronous variant of AsylADMM to establish theoretical guarantees and empirically demonstrate fast convergence for the asynchronous algorithm. We then show that our algorithm enables quantile-based trimming, geometric median estimation, and depth-based trimming, with quantile-based trimming empirically outperforming existing rank-based methods. Finally, we provide a novel theoretical analysis of rank-based trimming via Markov chain theory.
- Abstract(参考訳): リソース制約のあるエッジデバイス上での分散学習のための仕様は、通信効率が高く、データの破損に対して堅牢で、メモリ使用時の軽量なアルゴリズムを必要とする。
最先端のゴシップベースの手法が最初の要件を満たす一方で、堅牢性を達成することは依然として困難である。
Asynchronous decentralized ADMM-based method は中央値(統計集中度)を推定するために研究されてきた。
しかし、既存のアプローチではノード次数でスケールするメモリが必要であり、メモリが制限された場合に非現実的である。
本稿では、分散中央値と量子化推定のための新しいゴシップアルゴリズムであるAsylADMMを提案する。
AsylADMMの同期変種を分析し、理論的な保証を確立し、非同期アルゴリズムの高速収束を実証する。
そこで,本アルゴリズムは,量子化に基づくトリミング,幾何的中央値推定,深度に基づくトリミングを可能にし,既存の階数に基づく手法を実証的に上回ることを示す。
最後に、マルコフ連鎖理論によるランクベースのトリミングの新たな理論的解析を提供する。
関連論文リスト
- Asynchronous Gossip Algorithms for Rank-Based Statistical Methods [2.6636053598505307]
ウィルコクソンランクサム検定のための最初のゴシップアルゴリズムを提案する。
非同期ゴシップに基づくランク推定のための第1収束率を含む厳密な収束保証を提供する。
論文 参考訳(メタデータ) (2025-09-09T09:23:36Z) - Theory of Decentralized Robust Kernel-Based Learning [8.407288892993703]
我々は、カーネルヒルベルト空間を再現する枠組みの中で、新しい堅牢なカーネルベース学習アルゴリズムを提案する。
分散化アルゴリズムから生成された各局所ロバスト推定器を用いて回帰関数を近似することができることを示す。
局所的なサンプルサイズに対する厳密な選択ルールを提供し、適切に選択されたステップサイズとスケーリングパラメータ$sigma$では、分散化されたロバストアルゴリズムが最適な学習率を達成することができることを示す。
論文 参考訳(メタデータ) (2025-06-05T16:30:05Z) - Uncertainty quantification for Markov chain induced martingales with application to temporal difference learning [55.197497603087065]
線形関数近似を用いた時間差分学習アルゴリズムの性能解析を行った。
マルコフ連鎖によって誘導されるベクトル値マルティンタに対する新規で一般的な高次元濃度不等式とベリー-エッセイン境界を確立する。
論文 参考訳(メタデータ) (2025-02-19T15:33:55Z) - Robust Barycenter Estimation using Semi-Unbalanced Neural Optimal Transport [84.51977664336056]
本研究では、ロバストな連続バリセンタを推定するための新しいスケーラブルなアプローチを提案する。
提案手法は min-max 最適化問題であり,一般的なコスト関数に適用可能である。
論文 参考訳(メタデータ) (2024-10-04T23:27:33Z) - Provably Efficient Information-Directed Sampling Algorithms for Multi-Agent Reinforcement Learning [50.92957910121088]
本研究は,情報指向サンプリング(IDS)の原理に基づくマルチエージェント強化学習(MARL)のための新しいアルゴリズムの設計と解析を行う。
エピソディックな2プレーヤゼロサムMGに対して、ナッシュ平衡を学習するための3つのサンプル効率アルゴリズムを提案する。
我々は、Reg-MAIDSをマルチプレイヤー汎用MGに拡張し、ナッシュ平衡または粗相関平衡をサンプル効率良く学習できることを証明する。
論文 参考訳(メタデータ) (2024-04-30T06:48:56Z) - Exploiting Structure for Optimal Multi-Agent Bayesian Decentralized
Estimation [4.320393382724066]
ベイジアン分権データ融合の鍵となる課題は、噂の伝播(double counting)現象である。
マルチエージェント分散核融合問題における確率的独立構造を利用して、より厳密な境界を求めることができることを示す。
次に、大規模目標追跡シミュレーションを用いて、新しいモノリシックCIアルゴリズムを試験し、より厳密な境界とより正確な推定値が得られることを示す。
論文 参考訳(メタデータ) (2023-07-20T05:16:33Z) - Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning [55.198301429316125]
機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急成長するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイスに分散した分散システム上でMLモデルをトレーニングする問題について検討する。
論文 参考訳(メタデータ) (2022-02-07T15:04:15Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - Q-GADMM: Quantized Group ADMM for Communication Efficient Decentralized Machine Learning [66.18202188565922]
我々はQGADMM(QGADMM)という通信効率の高い分散機械学習(ML)アルゴリズムを提案する。
我々は,凸関数に対するQGADMMの収束性を証明しつつ,モデル化レベルとその確率を適応的に調整する新しい量子化法を開発した。
論文 参考訳(メタデータ) (2019-10-23T10:47:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。