論文の概要: Adversarial Robustness through Bias Variance Decomposition: A New
Perspective for Federated Learning
- arxiv url: http://arxiv.org/abs/2009.09026v3
- Date: Sun, 18 Sep 2022 19:09:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 02:33:37.616629
- Title: Adversarial Robustness through Bias Variance Decomposition: A New
Perspective for Federated Learning
- Title(参考訳): バイアス分散分解による敵対的ロバスト性:フェデレーション学習の新しい展望
- Authors: Yao Zhou, Jun Wu, Haixun Wang, Jingrui He
- Abstract要約: フェデレーション学習は、プライバシ保護制約の下で分散クライアントのグループからの知識を集約することで、ニューラルネットワークモデルを学ぶ。
このパラダイムは、集中型ニューラルネットワークの敵対的脆弱性を継承する可能性がある。
本稿では,サーバとクライアントの更新機構を改善したFed_BVAという,対角的に堅牢なフェデレーション学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 41.525434598682764
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated learning learns a neural network model by aggregating the knowledge
from a group of distributed clients under the privacy-preserving constraint. In
this work, we show that this paradigm might inherit the adversarial
vulnerability of the centralized neural network, i.e., it has deteriorated
performance on adversarial examples when the model is deployed. This is even
more alarming when federated learning paradigm is designed to approximate the
updating behavior of a centralized neural network. To solve this problem, we
propose an adversarially robust federated learning framework, named Fed_BVA,
with improved server and client update mechanisms. This is motivated by our
observation that the generalization error in federated learning can be
naturally decomposed into the bias and variance triggered by multiple clients'
predictions. Thus, we propose to generate the adversarial examples via
maximizing the bias and variance during server update, and learn the
adversarially robust model updates with those examples during client update. As
a result, an adversarially robust neural network can be aggregated from these
improved local clients' model updates. The experiments are conducted on
multiple benchmark data sets using several prevalent neural network models, and
the empirical results show that our framework is robust against white-box and
black-box adversarial corruptions under both IID and non-IID settings.
- Abstract(参考訳): フェデレーション学習は、プライバシ保護制約の下で分散クライアントのグループからの知識を集約することで、ニューラルネットワークモデルを学ぶ。
本稿では,このパラダイムが集中型ニューラルネットワークの敵意的脆弱性を継承する可能性があることを示す。
集中型ニューラルネットワークの更新動作を近似するようにフェデレーション学習パラダイムが設計された場合、これはさらに警告となる。
そこで本研究では,サーバとクライアントの更新機構を改良したfederated learningフレームワークfeed_bvaを提案する。
これは、フェデレーション学習における一般化誤差が、複数のクライアントの予測によって引き起こされるバイアスと分散に自然に分解できるという観測によるものである。
そこで本研究では,サーバ更新時のバイアスとばらつきを最大化し,クライアント更新時のモデル更新から,逆向きに頑健なモデル更新を学習する手法を提案する。
その結果、これらの改善されたローカルクライアントのモデル更新から、逆向きに堅牢なニューラルネットワークを集約することができる。
実験は,複数のニューラルネットワークモデルを用いて,複数のベンチマークデータセット上で実施し,実験結果から,アイドと非アイドのいずれにおいても,ホワイトボックスとブラックボックスの敵対的腐敗に対してロバストなフレームワークであることが判明した。
関連論文リスト
- On the effectiveness of partial variance reduction in federated learning
with heterogeneous data [27.527995694042506]
クライアント間の最終分類層の多様性は、FedAvgアルゴリズムの性能を阻害することを示す。
そこで本研究では,最終層のみの分散還元によるモデル修正を提案する。
同様の通信コストや低い通信コストで既存のベンチマークを著しく上回っていることを実証する。
論文 参考訳(メタデータ) (2022-12-05T11:56:35Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Byzantine-robust Federated Learning through Spatial-temporal Analysis of
Local Model Updates [6.758334200305236]
フェデレートラーニング(FL)は、複数の分散クライアント(モバイルデバイスなど)が、クライアントにローカルにトレーニングデータを保持しながら、協調的に集中的なモデルをトレーニングすることを可能にする。
本稿では,これらの障害と攻撃を空間的・時間的観点から緩和することを提案する。
具体的には、パラメータ空間におけるそれらの幾何学的性質を活用することにより、不正な更新を検出し、排除するためにクラスタリングに基づく手法を用いる。
論文 参考訳(メタデータ) (2021-07-03T18:48:11Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Adversarial Examples for Unsupervised Machine Learning Models [71.81480647638529]
回避予測を引き起こすアドリラルな例は、機械学習モデルの堅牢性を評価し改善するために広く利用されている。
教師なしモデルに対する逆例生成の枠組みを提案し,データ拡張への新たな応用を実証する。
論文 参考訳(メタデータ) (2021-03-02T17:47:58Z) - FedNNNN: Norm-Normalized Neural Network Aggregation for Fast and
Accurate Federated Learning [11.414092409682162]
フェデレートラーニング(Federated Learning, FL)は、サーバが学習プロセスを進めるために、いくつかの独立したクライアントから学んだモデルの集合を集約する必要がある分散ラーニングプロトコルである。
現在、FedAvgとして知られるモデル平均化は、最も広く適応されたアグリゲーション手法の1つである。
本研究では,異なるクライアントのモデルの平均化によって更新ベクトルのノルムが著しく低下し,学習速度が遅く,予測精度が低くなることを明らかにする。
論文 参考訳(メタデータ) (2020-08-11T06:21:15Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。