論文の概要: Certifiably-Robust Federated Adversarial Learning via Randomized
Smoothing
- arxiv url: http://arxiv.org/abs/2103.16031v1
- Date: Tue, 30 Mar 2021 02:19:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 14:46:09.047649
- Title: Certifiably-Robust Federated Adversarial Learning via Randomized
Smoothing
- Title(参考訳): ランダム化平滑化によるサーチフィラブルロバストフェデレーション学習
- Authors: Cheng Chen, Bhavya Kailkhura, Ryan Goldhahn and Yi Zhou
- Abstract要約: 本稿では,データプライベートな分散学習を実現するために,スムーズな手法を連携型対人訓練に取り入れる。
実験の結果,このような先進的な対人学習フレームワークは,集中的な訓練によって訓練されたモデルと同じくらい頑健なモデルを提供できることがわかった。
- 参考スコア(独自算出の注目度): 16.528628447356496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is an emerging data-private distributed learning
framework, which, however, is vulnerable to adversarial attacks. Although
several heuristic defenses are proposed to enhance the robustness of federated
learning, they do not provide certifiable robustness guarantees. In this paper,
we incorporate randomized smoothing techniques into federated adversarial
training to enable data-private distributed learning with certifiable
robustness to test-time adversarial perturbations. Our experiments show that
such an advanced federated adversarial learning framework can deliver models as
robust as those trained by the centralized training. Further, this enables
provably-robust classifiers to $\ell_2$-bounded adversarial perturbations in a
distributed setup. We also show that one-point gradient estimation based
training approach is $2-3\times$ faster than popular stochastic estimator based
approach without any noticeable certified robustness differences.
- Abstract(参考訳): フェデレーション学習(federated learning)は、新たなデータ-プライベートな分散学習フレームワークである。
フェデレーション学習のロバスト性を高めるためにいくつかのヒューリスティックな防御が提案されているが、それらは証明可能なロバスト性保証を提供していない。
本稿では,ランダムなスムース化手法をフェデレートされた逆方向学習に組み込んで,データプライベートな分散学習を実現する。
実験の結果,このような先進的な対人学習フレームワークは,集中的なトレーニングによってトレーニングされたモデルと同じくらい堅牢なモデルを提供できることがわかった。
さらに、証明可能なロバスト分類器を分散セットアップで$\ell_2$-bounded adversarial perturbationsにすることができる。
また,一点勾配推定に基づくトレーニング手法は,定性差のない確率的推定手法よりも2~3倍高速であることを示す。
関連論文リスト
- Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Adversarial Training Should Be Cast as a Non-Zero-Sum Game [121.95628660889628]
対人訓練の2つのプレイヤーゼロサムパラダイムは、十分な強靭性を発揮できていない。
敵のトレーニングアルゴリズムでよく使われるサロゲートベースの緩和は、ロバスト性に関するすべての保証を無効にすることを示す。
対人訓練の新たな非ゼロサム二段階の定式化は、一致し、場合によっては最先端の攻撃よりも優れたフレームワークをもたらす。
論文 参考訳(メタデータ) (2023-06-19T16:00:48Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Delving into the Adversarial Robustness of Federated Learning [41.409961662754405]
フェデレートラーニング(FL)では、モデルは敵の例に対して中心的に訓練されたモデルと同じくらい脆弱である。
FLシステムの精度と堅牢性を改善するために,DBFAT(Decision boundary based Federated Adversarial Training)と呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-19T04:54:25Z) - Decorrelative Network Architecture for Robust Electrocardiogram
Classification [4.808817930937323]
すべてのシナリオで正確であるネットワークをトレーニングすることはできない。
深層学習法は不確実性を推定するためにモデルパラメータ空間をサンプリングする。
これらのパラメータは、しばしば、敵の攻撃によって悪用される、同じ脆弱性にさらされる。
本稿では,特徴デコレーションとフーリエ分割に基づく新たなアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2022-07-19T02:36:36Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Regularized Training and Tight Certification for Randomized Smoothed
Classifier with Provable Robustness [15.38718018477333]
我々は新たな正規化リスクを導出し、正規化器はスムーズな手法の精度と堅牢性を適応的に促進することができる。
また、正規化効果を利用して、高い確率で保持されるより厳密なロバスト性の下限を提供する新しい認証アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-02-17T20:54:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。