論文の概要: A Huber Loss Minimization Approach to Byzantine Robust Federated Learning
- arxiv url: http://arxiv.org/abs/2308.12581v2
- Date: Mon, 25 Mar 2024 11:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 03:28:06.360635
- Title: A Huber Loss Minimization Approach to Byzantine Robust Federated Learning
- Title(参考訳): ビザンチン・ロバスト・フェデレーション学習におけるハマーの最小化アプローチ
- Authors: Puning Zhao, Fei Yu, Zhiguo Wan,
- Abstract要約: フェデレートされた学習システムは、敵対的な攻撃を受けやすい。
本稿では,ハマー損失最小化に基づく新しいアグリゲータを提案する。
次に、クライアントがわずかに異なる分布を持つような非i-i-dデータを含むように分析を拡張します。
- 参考スコア(独自算出の注目度): 11.489833879301173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning systems are susceptible to adversarial attacks. To combat this, we introduce a novel aggregator based on Huber loss minimization, and provide a comprehensive theoretical analysis. Under independent and identically distributed (i.i.d) assumption, our approach has several advantages compared to existing methods. Firstly, it has optimal dependence on $\epsilon$, which stands for the ratio of attacked clients. Secondly, our approach does not need precise knowledge of $\epsilon$. Thirdly, it allows different clients to have unequal data sizes. We then broaden our analysis to include non-i.i.d data, such that clients have slightly different distributions.
- Abstract(参考訳): フェデレートされた学習システムは、敵対的な攻撃を受けやすい。
これに対抗するために,ハマー損失最小化に基づく新しいアグリゲータを導入し,包括的な理論的解析を行う。
独立で同一に分散された仮定(すなわちd)の下では、我々のアプローチは既存の方法と比較していくつかの利点がある。
まず、攻撃されたクライアントの比率を表す$\epsilon$に最適に依存する。
第二に、我々のアプローチは$\epsilon$の正確な知識を必要としない。
第3に、異なるクライアントが不平等なデータサイズを持つことができる。
次に、クライアントがわずかに異なる分布を持つような非i-i-dデータを含むように分析を拡張します。
関連論文リスト
- Robust Model Evaluation over Large-scale Federated Networks [8.700087812420687]
我々は、目に見えないターゲットネットワーク上での機械学習モデルの性能を認証する課題に対処する。
モデルの平均損失を理論的に保証し、リスクCDFに一様境界を与える。
私たちのバウンダリは、K$クライアントへの多数のクエリに間に合うように計算可能で、モデルのプライベートデータにおける損失のみをクエリすることで、クライアントのプライバシを保存することができます。
論文 参考訳(メタデータ) (2024-10-26T18:45:15Z) - Byzantine-Robust Federated Learning: Impact of Client Subsampling and Local Updates [11.616782769625003]
逆境(エム・ビザンティン)のクライアントは、連邦学習(FL)を任意に操作する傾向がある。
学習精度の向上は, サブサンプルクライアント数に対して著しく低下することを示す。
また、注意深いステップ選択の下では、ビザンティンのクライアントによる学習エラーは局所的なステップの数とともに減少する。
論文 参考訳(メタデータ) (2024-02-20T07:40:11Z) - Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Byzantine-Robust Online and Offline Distributed Reinforcement Learning [60.970950468309056]
本稿では,複数のエージェントが環境を探索し,その経験を中央サーバを通じて伝達する分散強化学習環境について考察する。
エージェントの$alpha$-fractionは敵対的であり、任意の偽情報を報告することができる。
我々は、これらの対立エージェントの存在下で、マルコフ決定プロセスの根底にある準最適政策を特定することを模索する。
論文 参考訳(メタデータ) (2022-06-01T00:44:53Z) - Optimal Membership Inference Bounds for Adaptive Composition of Sampled
Gaussian Mechanisms [93.44378960676897]
トレーニングされたモデルとデータサンプルが与えられた場合、メンバシップ推論(MI)アタックは、サンプルがモデルのトレーニングセットにあるかどうかを予測する。
MI攻撃に対する一般的な対策は、モデルトレーニング中に差分プライバシー(DP)を利用して個々の事例の存在を隠蔽することである。
本稿では,MI攻撃を装着した相手のテキスト・アドバンテージのバウンダリを導出し,広く利用されているガウス機構の厳密性を示す。
論文 参考訳(メタデータ) (2022-04-12T22:36:56Z) - The Fundamental Price of Secure Aggregation in Differentially Private
Federated Learning [34.630300910399036]
我々は、$varepsilon$ Central DPの下で最高の精度を得るために必要な基本的な通信コストを特徴付ける。
我々の結果は、$tildeOleft( min(n2varepsilon2, d) right)$ bits per client が十分かつ必要であることを示している。
これにより、最先端のSecAgg分散DPスキームに対して大幅に改善される。
論文 参考訳(メタデータ) (2022-03-07T22:56:09Z) - Linear Speedup in Personalized Collaborative Learning [69.45124829480106]
フェデレート学習におけるパーソナライゼーションは、モデルのバイアスをトレーディングすることで、モデルの精度を向上させることができる。
ユーザの目的の最適化として、パーソナライズされた協調学習問題を定式化する。
分散の低減のためにバイアスを最適にトレードオフできる条件について検討する。
論文 参考訳(メタデータ) (2021-11-10T22:12:52Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z) - Differentiable Bandit Exploration [38.81737411000074]
我々は、$mathcalP$からサンプルを使って未知のディストリビューション$mathcalP$についてそのようなポリシーを学ぶ。
我々のアプローチはメタラーニングの形式であり、その形式について強い仮定をすることなく$mathcalP$のプロパティを利用する。
論文 参考訳(メタデータ) (2020-02-17T05:07:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。