論文の概要: Defending Adversarial Examples by Negative Correlation Ensemble
- arxiv url: http://arxiv.org/abs/2206.10334v1
- Date: Sat, 11 Jun 2022 12:43:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-26 12:16:48.344300
- Title: Defending Adversarial Examples by Negative Correlation Ensemble
- Title(参考訳): 負相関アンサンブルによる反対例の保存
- Authors: Wenjian Luo, Hongwei Zhang, Linghao Kong, Zhijian Chen, Ke Tang
- Abstract要約: 敵対的な例は、ディープラーニング(DNN)の発展に重大なセキュリティリスクをもたらす
本稿では,NCEn (Negative correlation Ensemble) という新たなアンサンブル防御手法を提案する。
NCEnは、アンサンブル内の各部材の勾配方向と勾配等級を負の相関で同時に導入し、敵例の転送可能性を低減することで、説得力のある結果を得る。
- 参考スコア(独自算出の注目度): 24.048285584674694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The security issues in DNNs, such as adversarial examples, have attracted
much attention. Adversarial examples refer to the examples which are capable to
induce the DNNs return completely predictions by introducing carefully designed
perturbations. Obviously, adversarial examples bring great security risks to
the development of deep learning. Recently, Some defense approaches against
adversarial examples have been proposed, however, in our opinion, the
performance of these approaches are still limited. In this paper, we propose a
new ensemble defense approach named the Negative Correlation Ensemble (NCEn),
which achieves compelling results by introducing gradient directions and
gradient magnitudes of each member in the ensemble negatively correlated and at
the same time, reducing the transferability of adversarial examples among them.
Extensive experiments have been conducted, and the results demonstrate that
NCEn can improve the adversarial robustness of ensembles effectively.
- Abstract(参考訳): 敵の例のようなDNNのセキュリティ問題は、多くの注目を集めている。
逆の例は、慎重に設計された摂動を導入することによって、DNNが完全に予測を返すことができる例を指す。
明らかに、敵対的な例は、ディープラーニングの開発に大きなセキュリティリスクをもたらします。
近年,敵対的事例に対する防衛的アプローチが提案されているが,我々の意見では,これらの手法の性能は依然として限られている。
本稿では,Ngative correlation Ensemble (NCEn) という新たなアンサンブル防御手法を提案する。この手法は,アンサンブル内の各部材の勾配方向と勾配等級を負の相関で同時に導入することにより,敵例の転送可能性を低減することで,説得力のある結果が得られる。
広汎な実験が行われ、NCEnはアンサンブルの対向的堅牢性を効果的に向上できることを示した。
関連論文リスト
- Enhancing Adversarial Robustness via Uncertainty-Aware Distributional Adversarial Training [43.766504246864045]
そこで本研究では,不確実性を考慮した分散対向学習手法を提案する。
提案手法は, 最先端の対向性を実現し, 自然性能を維持できる。
論文 参考訳(メタデータ) (2024-11-05T07:26:24Z) - Towards Adversarial Robustness via Debiased High-Confidence Logit Alignment [24.577363665112706]
近年の対人訓練技術は、高信頼例を生成するために逆対人攻撃を利用している。
本研究は, 逆方向攻撃による高信頼出力が, 偏りのある特徴の活性化と相関していることを明らかにする。
本稿では,このバイアスに対処するため,脱バイアス高信頼度訓練(DHAT)を提案する。
DHATは最先端のパフォーマンスを実現し、さまざまなビジョンデータセットにまたがる堅牢な一般化機能を示す。
論文 参考訳(メタデータ) (2024-08-12T11:56:06Z) - Improving Adversarial Training using Vulnerability-Aware Perturbation
Budget [7.430861908931903]
敵対的訓練(AT)は、敵対的攻撃に対するディープニューラルネットワーク(DNN)の堅牢性を効果的に改善する。
本稿では,AT の逆例に摂動境界を割り当てる簡易で安価な脆弱性認識型再重み付け関数を提案する。
実験の結果,提案手法は様々な攻撃に対してATアルゴリズムの頑健さを真に向上させることがわかった。
論文 参考訳(メタデータ) (2024-03-06T21:50:52Z) - The Enemy of My Enemy is My Friend: Exploring Inverse Adversaries for
Improving Adversarial Training [72.39526433794707]
敵の訓練とその変種は、敵の例に対抗して最も効果的なアプローチであることが示されている。
本稿では,モデルが類似した出力を生成することを奨励する,新たな対角訓練手法を提案する。
本手法は,最先端のロバスト性および自然な精度を実現する。
論文 参考訳(メタデータ) (2022-11-01T15:24:26Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Investigating the Role of Negatives in Contrastive Representation
Learning [59.30700308648194]
ノイズコントラスト学習は教師なし表現学習の一般的な手法である。
我々は、これらのパラメータの1つの役割の曖昧さ、すなわち負の例の数に焦点をあてる。
結果が我々の理論と広く一致しているのに対して、我々の視覚実験はより悪質であり、性能は時々負の数に敏感である。
論文 参考訳(メタデータ) (2021-06-18T06:44:16Z) - Improving White-box Robustness of Pre-processing Defenses via Joint Adversarial Training [106.34722726264522]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Generalizing Adversarial Examples by AdaBelief Optimizer [6.243028964381449]
本稿では,AdaBelief反復高速勾配符号法を提案し,その逆例を一般化する。
提案手法は,最先端の攻撃手法と比較して,ホワイトボックス設定における敵例を効果的に生成することができる。
転送速度は、最新の攻撃方法よりも7%-21%高いです。
論文 参考訳(メタデータ) (2021-01-25T07:39:16Z) - Evaluating Ensemble Robustness Against Adversarial Attacks [0.0]
ニューラルネットワークを騙す目的で生成されるわずかな摂動入力である逆例は、モデル間で転送されることが知られている。
この転送可能性の概念は、ブラックボックスの設定でモデルを攻撃する可能性につながるため、重大なセキュリティ上の懸念を引き起こす。
我々は、アンサンブルの構成モデルが効果的に協調して、アンサンブル自体を対象とする対角的例の空間を減らし、グラデーションに基づく尺度を導入する。
論文 参考訳(メタデータ) (2020-05-12T13:20:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。