論文の概要: Towards Robustness against Unsuspicious Adversarial Examples
- arxiv url: http://arxiv.org/abs/2005.04272v2
- Date: Thu, 8 Oct 2020 16:58:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 12:15:20.775262
- Title: Towards Robustness against Unsuspicious Adversarial Examples
- Title(参考訳): 疑わしい敵の事例に対するロバスト性に向けて
- Authors: Liang Tong, Minzhe Guo, Atul Prakash, Yevgeniy Vorobeychik
- Abstract要約: 本稿では,認知的サリエンスを利用した不審感のモデル化手法を提案する。
我々は、分類器に対する非サービエンス保存二重摂動攻撃を計算した。
両摂動攻撃による対人訓練は、最先端の堅牢な学習手法よりも、これらに対して堅牢な分類器が得られることを示す。
- 参考スコア(独自算出の注目度): 33.63338857434094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the remarkable success of deep neural networks, significant concerns
have emerged about their robustness to adversarial perturbations to inputs.
While most attacks aim to ensure that these are imperceptible, physical
perturbation attacks typically aim for being unsuspicious, even if perceptible.
However, there is no universal notion of what it means for adversarial examples
to be unsuspicious. We propose an approach for modeling suspiciousness by
leveraging cognitive salience. Specifically, we split an image into foreground
(salient region) and background (the rest), and allow significantly larger
adversarial perturbations in the background, while ensuring that cognitive
salience of background remains low. We describe how to compute the resulting
non-salience-preserving dual-perturbation attacks on classifiers. We then
experimentally demonstrate that our attacks indeed do not significantly change
perceptual salience of the background, but are highly effective against
classifiers robust to conventional attacks. Furthermore, we show that
adversarial training with dual-perturbation attacks yields classifiers that are
more robust to these than state-of-the-art robust learning approaches, and
comparable in terms of robustness to conventional attacks.
- Abstract(参考訳): ディープニューラルネットワークの顕著な成功にもかかわらず、入力に対する敵対的摂動に対する強固さに重大な懸念が浮かび上がっている。
ほとんどの攻撃は、これらが知覚不能であることを保証することを目的としているが、物理的摂動攻撃は、たとえ知覚可能であっても、通常、不幸なことを目標としている。
しかし、それが敵の例にとって何を意味するかという普遍的な概念は見当たらない。
認知的サリエンスを利用した不審感のモデル化手法を提案する。
具体的には,イメージを前景(局所領域)と背景(残りの領域)に分割し,背景の対向的摂動を大幅に大きくし,背景の認知的サリエンスを低く抑える。
分類器に対する非salience-preserving dual-perturbation攻撃の計算方法について述べる。
そして,我々の攻撃が背景の知覚的サリエンスを著しく変化させるのではなく,従来の攻撃に対して堅牢な分類器に対して極めて有効であることを示す。
さらに,二重摂動攻撃を伴う敵訓練により,最先端のロバストな学習アプローチよりも頑健な分類器が得られ,従来の攻撃と同等の堅牢性が得られた。
関連論文リスト
- Towards Adversarial Robustness via Debiased High-Confidence Logit Alignment [24.577363665112706]
近年の対人訓練技術は、高信頼例を生成するために逆対人攻撃を利用している。
本研究は, 逆方向攻撃による高信頼出力が, 偏りのある特徴の活性化と相関していることを明らかにする。
本稿では,このバイアスに対処するため,脱バイアス高信頼度訓練(DHAT)を提案する。
DHATは最先端のパフォーマンスを実現し、さまざまなビジョンデータセットにまたがる堅牢な一般化機能を示す。
論文 参考訳(メタデータ) (2024-08-12T11:56:06Z) - Improving Adversarial Robustness with Self-Paced Hard-Class Pair
Reweighting [5.084323778393556]
標的外攻撃による敵の訓練は 最も認知されている方法の1つです
自然に不均衡なクラス間のセマンティックな類似性により、これらのハードクラスのペアが互いに仮想的なターゲットになる。
モデル最適化における重み付きハードクラスペアの損失について提案し、ハードクラスからの識別的特徴の学習を促す。
論文 参考訳(メタデータ) (2022-10-26T22:51:36Z) - Rethinking Textual Adversarial Defense for Pre-trained Language Models [79.18455635071817]
文献レビューでは、事前訓練された言語モデル(PrLM)が敵の攻撃に弱いことが示されている。
本稿では、現在の敵攻撃アプローチにより、より自然で知覚不能な敵の例を生成するための新しい指標(異常の度合い)を提案する。
我々は,我々のユニバーサル・ディフェンス・フレームワークが,他の特定のディフェンスと同等あるいはそれ以上のアフターアタック・ディフェンスの精度を達成することを示す。
論文 参考訳(メタデータ) (2022-07-21T07:51:45Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Exploring Misclassifications of Robust Neural Networks to Enhance
Adversarial Attacks [3.3248768737711045]
我々は、敵の攻撃に対して堅牢であるように訓練された19種類の最先端ニューラルネットワークの分類決定を分析する。
敵攻撃に対する新たな損失関数を提案し,攻撃成功率を継続的に改善する。
論文 参考訳(メタデータ) (2021-05-21T12:10:38Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。