論文の概要: Trade-off in Estimating the Number of Byzantine Clients in Federated Learning
- arxiv url: http://arxiv.org/abs/2510.04432v1
- Date: Mon, 06 Oct 2025 02:01:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.646386
- Title: Trade-off in Estimating the Number of Byzantine Clients in Federated Learning
- Title(参考訳): フェデレーションラーニングにおけるビザンチン客数推定のトレードオフ
- Authors: Ziyi Chen, Su Zhang, Heng Huang,
- Abstract要約: フェデレート学習は、誤ったシグナルを送信できるビザンティンのクライアントにとって脆弱である。
我々は、過小評価(hatfge f$)が、アグリゲータとフェデレーションドラーニングの両方において、任意に貧弱なパフォーマンスをもたらすことを示した。
これらの最適境界はすべて$hatf/(n-f-hatf)$と$n$クライアントに比例し、より大きい$hatf$で単調に増加する。
- 参考スコア(独自算出の注目度): 51.015234193544636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning has attracted increasing attention at recent large-scale optimization and machine learning research and applications, but is also vulnerable to Byzantine clients that can send any erroneous signals. Robust aggregators are commonly used to resist Byzantine clients. This usually requires to estimate the unknown number $f$ of Byzantine clients, and thus accordingly select the aggregators with proper degree of robustness (i.e., the maximum number $\hat{f}$ of Byzantine clients allowed by the aggregator). Such an estimation should have important effect on the performance, which has not been systematically studied to our knowledge. This work will fill in the gap by theoretically analyzing the worst-case error of aggregators as well as its induced federated learning algorithm for any cases of $\hat{f}$ and $f$. Specifically, we will show that underestimation ($\hat{f}<f$) can lead to arbitrarily poor performance for both aggregators and federated learning. For non-underestimation ($\hat{f}\ge f$), we have proved optimal lower and upper bounds of the same order on the errors of both aggregators and federated learning. All these optimal bounds are proportional to $\hat{f}/(n-f-\hat{f})$ with $n$ clients, which monotonically increases with larger $\hat{f}$. This indicates a fundamental trade-off: while an aggregator with a larger robustness degree $\hat{f}$ can solve federated learning problems of wider range $f\in [0,\hat{f}]$, the performance can deteriorate when there are actually fewer or even no Byzantine clients (i.e., $f\in [0,\hat{f})$).
- Abstract(参考訳): フェデレートラーニングは、最近の大規模な最適化と機械学習の研究と応用で注目を集めているが、誤ったシグナルを送信できるビザンティンのクライアントにも脆弱である。
ロバスト・アグリゲーターは一般的にビザンツのクライアントに抵抗するために使用される。
これは通常、ビザンティンのクライアントの未知の番号$f$を見積もることが必要であり、したがってアグリゲータを適切な堅牢性(すなわち、アグリゲータによって許されるビザンティンのクライアントの最大値$\hat{f}$)で選ぶ。
このような推定は、我々の知識に体系的に研究されていない性能に重要な影響を与えるべきである。
この研究は、アグリゲータの最悪のケースエラーと、$\hat{f}$および$f$の任意のケースに対するその誘導学習アルゴリズムを理論的に解析することでギャップを埋める。
具体的には、過小評価($\hat{f}<f$)が、アグリゲータとフェデレーションドラーニングの両方において、任意に貧弱なパフォーマンスをもたらすことを示す。
非下地推定 (\hat{f}\ge f$) の場合、アグリゲータとフェデレーションドラーニングの両方の誤差に対して、同じ順序の最適下地と上限を証明した。
これらの最適境界は、$n$クライアントを持つ$\hat{f}/(n-f-\hat{f})$に比例し、より大きい$\hat{f}$で単調に増加する。
これは基本的なトレードオフを示している: より大きなロバスト度を持つアグリゲータ$\hat{f}$は、より広い範囲の連邦学習問題を$f\in [0,\hat{f}]$で解くことができるが、実際にビザンティンのクライアントが存在しない場合(つまり$f\in [0,\hat{f})$)、パフォーマンスは悪化する。
関連論文リスト
- Centroid Approximation for Byzantine-Tolerant Federated Learning [11.477670199123335]
フェデレーション学習は、分散環境で機械学習モデルをトレーニングする際に、各クライアントがデータをローカルに保持することを可能にする。
種々の妥当性条件だけでは, 平均値の良好な近似が保証されないことを示す。
本稿では,凸妥当性の下で$sqrt2d$-approximationを実現するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-18T08:40:49Z) - Certifiably Robust Model Evaluation in Federated Learning under Meta-Distributional Shifts [8.700087812420687]
異なるネットワーク "B" 上でモデルの性能を保証する。
我々は、原則付きバニラDKWバウンダリが、同じ(ソース)ネットワーク内の未確認クライアント上で、モデルの真のパフォーマンスの認証を可能にする方法を示す。
論文 参考訳(メタデータ) (2024-10-26T18:45:15Z) - Efficient Federated Learning against Byzantine Attacks and Data Heterogeneity via Aggregating Normalized Gradients [27.433334322019675]
Federated Learning (FL)は、クライアントが生データを共有せずに、協力的にモデルをトレーニングすることを可能にする。
FLはByzantine攻撃やデータ不均一性の反復に弱いため、パフォーマンスが著しく低下する可能性がある。
フェデレート正規化勾配アルゴリズム (Federated Normalized Gradients Algorithm, NGA) を提案する。
既存手法に対するベンチマーク収束の実験結果
論文 参考訳(メタデータ) (2024-08-18T16:50:39Z) - Byzantine-Robust Federated Learning: Impact of Client Subsampling and Local Updates [11.616782769625003]
逆境(エム・ビザンティン)のクライアントは、連邦学習(FL)を任意に操作する傾向がある。
学習精度の向上は, サブサンプルクライアント数に対して著しく低下することを示す。
また、注意深いステップ選択の下では、ビザンティンのクライアントによる学習エラーは局所的なステップの数とともに減少する。
論文 参考訳(メタデータ) (2024-02-20T07:40:11Z) - There is no Accuracy-Interpretability Tradeoff in Reinforcement Learning
for Mazes [64.05903267230467]
相互理解性は,強化学習システムにおける信頼性に不可欠なビルディングブロックである。
場合によっては、最適性を保ちつつ、政策の解釈可能性を達成することができることを示す。
論文 参考訳(メタデータ) (2022-06-09T04:23:26Z) - Federated Optimization of Smooth Loss Functions [35.944772011421264]
本研究では,連合学習フレームワークにおける経験的リスク最小化(ERM)について検討する。
本稿では,FedLRGDアルゴリズムを提案する。
提案手法は,不正確な勾配勾配勾配を用いてサーバのERM問題を解く。
論文 参考訳(メタデータ) (2022-01-06T07:40:51Z) - Linear Speedup in Personalized Collaborative Learning [69.45124829480106]
フェデレート学習におけるパーソナライゼーションは、モデルのバイアスをトレーディングすることで、モデルの精度を向上させることができる。
ユーザの目的の最適化として、パーソナライズされた協調学習問題を定式化する。
分散の低減のためにバイアスを最適にトレードオフできる条件について検討する。
論文 参考訳(メタデータ) (2021-11-10T22:12:52Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。