論文の概要: Ensemble Federated Adversarial Training with Non-IID data
- arxiv url: http://arxiv.org/abs/2110.14814v1
- Date: Tue, 26 Oct 2021 03:55:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-31 13:22:07.457712
- Title: Ensemble Federated Adversarial Training with Non-IID data
- Title(参考訳): 非IIDデータを用いた連合型対人訓練
- Authors: Shuang Luo and Didi Zhu and Zexi Li and Chao Wu
- Abstract要約: 敵対的なサンプルは、悪意のある目的を達成するためにクライアントモデルを混乱させ、騙すことができます。
本稿では, EFAT(Ensemble Federated Adversarial Training Method)について紹介する。
提案手法は,フェデレーション学習と敵対的アプローチを単独で組み合わせた場合と比較して,有望な結果が得られる。
- 参考スコア(独自算出の注目度): 1.5878082907673585
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite federated learning endows distributed clients with a cooperative
training mode under the premise of protecting data privacy and security, the
clients are still vulnerable when encountering adversarial samples due to the
lack of robustness. The adversarial samples can confuse and cheat the client
models to achieve malicious purposes via injecting elaborate noise into normal
input. In this paper, we introduce a novel Ensemble Federated Adversarial
Training Method, termed as EFAT, that enables an efficacious and robust coupled
training mechanism. Our core idea is to enhance the diversity of adversarial
examples through expanding training data with different disturbances generated
from other participated clients, which helps adversarial training perform well
in Non-IID settings. Experimental results on different Non-IID situations,
including feature distribution skew and label distribution skew, show that our
proposed method achieves promising results compared with solely combining
federated learning with adversarial approaches.
- Abstract(参考訳): データプライバシとセキュリティを保護するという前提の下で、相互学習型エンドウズ(federated learning endows)が分散クライアントを協調トレーニングモードとして配布しているにも関わらず、クライアントは堅牢性の欠如により、敵対的なサンプルに遭遇しても脆弱である。
敵のサンプルはクライアントモデルを混同して騙し、通常の入力に精巧なノイズを注入することで悪意のある目的を達成することができる。
本稿では, EFATと呼ばれる, 効果的で堅牢な協調学習機構を実現するための, 包括的対人訓練手法を提案する。
我々の中核となる考え方は、他の参加顧客から異なる障害を伴うトレーニングデータを拡張することで、敵のサンプルの多様性を高めることである。
特徴分布スキューやラベル分布スキューなど,異なる非IID状況における実験結果から,本手法は,フェデレート学習と対角的アプローチを単独で組み合わせることで,有望な結果が得られることを示した。
関連論文リスト
- Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Reinforcement Learning as a Catalyst for Robust and Fair Federated
Learning: Deciphering the Dynamics of Client Contributions [6.318638597489423]
Reinforcement Federated Learning (RFL)は、深い強化学習を活用して、集約中のクライアントコントリビューションを適応的に最適化する新しいフレームワークである。
堅牢性に関しては、RFLは同等の公平性を維持しつつ、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-02-08T10:22:12Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Characterizing Internal Evasion Attacks in Federated Learning [12.873984200814533]
フェデレートされた学習は、クライアントが機械学習モデルを共同でトレーニングすることを可能にする。
クライアントのモデルは、トレーニングとテストフェーズにおける攻撃に対して脆弱である。
本稿では,「内部回避攻撃」を行う敵クライアントの問題に対処する。
論文 参考訳(メタデータ) (2022-09-17T21:46:38Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Certifiably-Robust Federated Adversarial Learning via Randomized
Smoothing [16.528628447356496]
本稿では,データプライベートな分散学習を実現するために,スムーズな手法を連携型対人訓練に取り入れる。
実験の結果,このような先進的な対人学習フレームワークは,集中的な訓練によって訓練されたモデルと同じくらい頑健なモデルを提供できることがわかった。
論文 参考訳(メタデータ) (2021-03-30T02:19:45Z) - Personalized Cross-Silo Federated Learning on Non-IID Data [62.68467223450439]
非IIDデータは、連合学習にとって難しい課題である。
我々は、類似したデータを持つクライアント間のペアワイズコラボレーションという新しいアイデアを提案する。
論文 参考訳(メタデータ) (2020-07-07T21:38:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。