論文の概要: Improving Ensemble Robustness by Collaboratively Promoting and Demoting
Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2009.09612v2
- Date: Fri, 4 Feb 2022 19:59:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 04:23:20.194126
- Title: Improving Ensemble Robustness by Collaboratively Promoting and Demoting
Adversarial Robustness
- Title(参考訳): 対向ロバスト性向上と協調促進によるアンサンブルロバスト性の向上
- Authors: Anh Bui, Trung Le, He Zhao, Paul Montague, Olivier deVel, Tamas
Abraham, Dinh Phung
- Abstract要約: アンサンブルベースの敵の訓練は、敵の攻撃に対する堅牢性を達成するための原則的アプローチである。
本研究では,アンサンブルモデルの委員会モデル間で協調する,シンプルかつ効果的な戦略を提案する。
提案する枠組みは, 対向移動可能性の低減と, アンサンブルメンバーの多様性の促進に資する。
- 参考スコア(独自算出の注目度): 19.8818435601131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensemble-based adversarial training is a principled approach to achieve
robustness against adversarial attacks. An important technique of this approach
is to control the transferability of adversarial examples among ensemble
members. We propose in this work a simple yet effective strategy to collaborate
among committee models of an ensemble model. This is achieved via the secure
and insecure sets defined for each model member on a given sample, hence help
us to quantify and regularize the transferability. Consequently, our proposed
framework provides the flexibility to reduce the adversarial transferability as
well as to promote the diversity of ensemble members, which are two crucial
factors for better robustness in our ensemble approach. We conduct extensive
and comprehensive experiments to demonstrate that our proposed method
outperforms the state-of-the-art ensemble baselines, at the same time can
detect a wide range of adversarial examples with a nearly perfect accuracy. Our
code is available at:
https://github.com/tuananhbui89/Crossing-Collaborative-Ensemble.
- Abstract(参考訳): アンサンブルベースの敵意トレーニングは、敵意攻撃に対する堅牢性を達成するための原則的なアプローチである。
このアプローチの重要な手法は、アンサンブルメンバー間の敵例の転送可能性を制御することである。
本研究では,アンサンブルモデルの委員会モデル間で協調する,シンプルかつ効果的な戦略を提案する。
これは、与えられたサンプル上の各モデルメンバーに対して定義されたセキュアで安全でない集合によって達成されるので、転送可能性の定量化と規則化に役立ちます。
その結果,提案するフレームワークは,提案手法におけるロバスト性向上の2つの重要な要因であるアンサンブル部材の多様性を促進するとともに,逆伝達性を低減する柔軟性を提供する。
提案手法が最先端のアンサンブルベースラインを上回ることを実証するために,広範囲にわたる包括的な実験を行い,ほぼ完全な精度で幅広い逆例を検出できることを示した。
私たちのコードは、https://github.com/tuananhbui89/Crossing-Collaborative-Ensembleで利用可能です。
関連論文リスト
- AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Improved Robustness Against Adaptive Attacks With Ensembles and
Error-Correcting Output Codes [0.0]
本研究では, 誤り訂正出力符号(ECOC)アンサンブルの堅牢性について, アーキテクチャ改善と多様性向上を通じて検討する。
本研究では,適応攻撃に対する包括的ロバストネス評価を行い,アンサンブルの多様性とロバストネスの関係について検討する。
論文 参考訳(メタデータ) (2023-03-04T05:05:17Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Randomized Kaczmarz in Adversarial Distributed Setting [15.23454580321625]
本稿では,凸最適化問題に対して逆耐性を持つ反復的アプローチを提案する。
本手法は収束を保証し,逆分布に適応することができる。
論文 参考訳(メタデータ) (2023-02-24T01:26:56Z) - Learning Transferable Adversarial Robust Representations via Multi-view
Consistency [57.73073964318167]
デュアルエンコーダを用いたメタ逆多視点表現学習フレームワークを提案する。
未確認領域からの少数ショット学習タスクにおけるフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-10-19T11:48:01Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Revisiting GANs by Best-Response Constraint: Perspective, Methodology,
and Application [49.66088514485446]
ベストレスポンス制約(Best-Response Constraint、BRC)は、ジェネレータのディスクリミネータへの依存性を明示的に定式化する一般的な学習フレームワークである。
モチベーションや定式化の相違があっても, フレキシブルBRC法により, 様々なGANが一様に改善できることが示される。
論文 参考訳(メタデータ) (2022-05-20T12:42:41Z) - A Regularized Implicit Policy for Offline Reinforcement Learning [54.7427227775581]
オフラインの強化学習は、環境とのさらなるインタラクションなしに、固定データセットから学習を可能にする。
フレキシブルだが十分に調整された完全実装ポリシーの学習を支援するフレームワークを提案する。
D4RLデータセットの実験とアブレーション研究により、我々のフレームワークとアルゴリズム設計の有効性が検証された。
論文 参考訳(メタデータ) (2022-02-19T20:22:04Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - Evaluating Ensemble Robustness Against Adversarial Attacks [0.0]
ニューラルネットワークを騙す目的で生成されるわずかな摂動入力である逆例は、モデル間で転送されることが知られている。
この転送可能性の概念は、ブラックボックスの設定でモデルを攻撃する可能性につながるため、重大なセキュリティ上の懸念を引き起こす。
我々は、アンサンブルの構成モデルが効果的に協調して、アンサンブル自体を対象とする対角的例の空間を減らし、グラデーションに基づく尺度を導入する。
論文 参考訳(メタデータ) (2020-05-12T13:20:54Z) - Certifying Joint Adversarial Robustness for Model Ensembles [10.203602318836445]
ディープニューラルネットワーク(DNN)は、しばしば敵の例に対して脆弱である。
提案された防御は、個々のモデルが脆弱であるとしても、敵がアンサンブルに対して成功する敵の例を見つけることができないことを期待して、モデルのアンサンブルを展開させる。
モデルアンサンブルのジョイント脆弱性を考察し,アンサンブルのジョイントロバスト性を証明する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-21T19:38:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。