論文の概要: Adversarial training in communication constrained federated learning
- arxiv url: http://arxiv.org/abs/2103.01319v1
- Date: Mon, 1 Mar 2021 21:37:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 17:22:38.694491
- Title: Adversarial training in communication constrained federated learning
- Title(参考訳): コミュニケーション制約付き連合学習における対人訓練
- Authors: Devansh Shah, Parijat Dube, Supriyo Chakraborty, Ashish Verma
- Abstract要約: 我々は、連合学習環境における敵対的トレーニング(AT)の使用の可能性を検討する。
ATがフェデレーション設定で使用されると、自然および敵対的な精度が大幅に低下します。
フェデレーション設定でATを実行するための新しいアルゴリズムであるFedDynATを提案する。
- 参考スコア(独自算出の注目度): 9.975138350023972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning enables model training over a distributed corpus of agent
data. However, the trained model is vulnerable to adversarial examples,
designed to elicit misclassification. We study the feasibility of using
adversarial training (AT) in the federated learning setting. Furthermore, we do
so assuming a fixed communication budget and non-iid data distribution between
participating agents. We observe a significant drop in both natural and
adversarial accuracies when AT is used in the federated setting as opposed to
centralized training. We attribute this to the number of epochs of AT performed
locally at the agents, which in turn effects (i) drift between local models;
and (ii) convergence time (measured in number of communication rounds). Towards
this end, we propose FedDynAT, a novel algorithm for performing AT in federated
setting. Through extensive experimentation we show that FedDynAT significantly
improves both natural and adversarial accuracy, as well as model convergence
time by reducing the model drift.
- Abstract(参考訳): 連合学習はエージェントデータの分散コーパス上でのモデルトレーニングを可能にする。
しかし、訓練されたモデルは、誤分類を誘発するように設計された敵の例に弱い。
我々は、連合学習環境における敵対的トレーニング(AT)の使用の可能性を検討する。
さらに,一定の通信予算と参加者間の非iidデータ分布を仮定する。
集中型トレーニングとは対照的に、ATがフェデレーション設定で使用されると、自然および敵対的な精度が大幅に低下します。
これは,各エージェントにおいて局所的に実行されるATのエポック数であり,その効果(i) 局所モデル間のドリフト,および (ii) 収束時間(通信ラウンド数で測定される)に起因している。
そこで我々は,フェデレート環境でATを実行するための新しいアルゴリズムであるFedDynATを提案する。
実験により,FedDynATは,モデルドリフトの低減によるモデル収束時間だけでなく,自然と逆の双方の精度を著しく向上することを示した。
関連論文リスト
- Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Mitigating Data Injection Attacks on Federated Learning [20.24380409762923]
フェデレートラーニング(Federated Learning)は、複数のエンティティがデータを使ってモデルを協調的にトレーニングすることを可能にするテクニックである。
その利点にもかかわらず、フェデレートされた学習は偽のデータ注入攻撃の影響を受けやすい。
本稿では,フェデレート学習システムにおけるデータインジェクション攻撃の検出と緩和を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T18:26:31Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Certified Robustness in Federated Learning [54.03574895808258]
我々は,フェデレーショントレーニングとパーソナライゼーション,および認定ロバストネスの相互作用について検討した。
単純なフェデレーション平均化技術は, より正確であるだけでなく, より精度の高いロバストモデルの構築にも有効であることがわかった。
論文 参考訳(メタデータ) (2022-06-06T12:10:53Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - FAT: Federated Adversarial Training [5.287156503763459]
フェデレートラーニング(FL)は、機械学習(ML)におけるプライバシとデータガバナンスの問題に対処する最も重要なパラダイムの1つである。
我々は、トレーニング中のデータのプライバシを保ちながら、推論中の回避の脅威を軽減するために、両方の手法を組み合わせて、連合敵訓練(FAT)への第一歩を踏み出した。
論文 参考訳(メタデータ) (2020-12-03T09:47:47Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。