論文の概要: ADC: Adversarial attacks against object Detection that evade Context
consistency checks
- arxiv url: http://arxiv.org/abs/2110.12321v1
- Date: Sun, 24 Oct 2021 00:25:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 14:38:42.515372
- Title: ADC: Adversarial attacks against object Detection that evade Context
consistency checks
- Title(参考訳): ADC:コンテキスト整合性チェックを回避するオブジェクト検出に対する逆攻撃
- Authors: Mingjun Yin, Shasha Li, Chengyu Song, M. Salman Asif, Amit K.
Roy-Chowdhury, Srikanth V. Krishnamurthy
- Abstract要約: 文脈整合性チェックさえも、適切に構築された敵の例に対して脆弱であることを示す。
このような防御を覆す実例を生成するための適応型フレームワークを提案する。
我々の結果は、コンテキストを堅牢にモデル化し、一貫性をチェックする方法はまだ未解決の問題であることを示している。
- 参考スコア(独自算出の注目度): 55.8459119462263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) have been shown to be vulnerable to adversarial
examples, which are slightly perturbed input images which lead DNNs to make
wrong predictions. To protect from such examples, various defense strategies
have been proposed. A very recent defense strategy for detecting adversarial
examples, that has been shown to be robust to current attacks, is to check for
intrinsic context consistencies in the input data, where context refers to
various relationships (e.g., object-to-object co-occurrence relationships) in
images. In this paper, we show that even context consistency checks can be
brittle to properly crafted adversarial examples and to the best of our
knowledge, we are the first to do so. Specifically, we propose an adaptive
framework to generate examples that subvert such defenses, namely, Adversarial
attacks against object Detection that evade Context consistency checks (ADC).
In ADC, we formulate a joint optimization problem which has two attack goals,
viz., (i) fooling the object detector and (ii) evading the context consistency
check system, at the same time. Experiments on both PASCAL VOC and MS COCO
datasets show that examples generated with ADC fool the object detector with a
success rate of over 85% in most cases, and at the same time evade the recently
proposed context consistency checks, with a bypassing rate of over 80% in most
cases. Our results suggest that how to robustly model context and check its
consistency, is still an open problem.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Networks, DNN)は、DNNを誤った予測に導くわずかに乱れた入力画像である敵の例に弱いことが示されている。
このような事例から、様々な防衛戦略が提案されている。
最近の防御戦略は、現在の攻撃に頑健であることが示されており、画像内の様々な関係(例えば、オブジェクトとオブジェクトの共起関係)を参照する入力データに含まれる内在的なコンテクストのコンテクストをチェックすることである。
本稿では, 文脈整合性チェックであっても, 正反対の例を適切に作成し, 知識を最大限に活用するためには, まず, 状況整合性チェックが脆弱であることを示す。
具体的には、コンテキスト一貫性チェック(adc)を回避するオブジェクト検出に対する敵意攻撃など、このような防御を回避できる例を生成するための適応フレームワークを提案する。
ADCでは、2つの攻撃目標であるviz を持つ共同最適化問題を定式化する。
(i)物体検出器を騙して
(ii)同時にコンテキスト一貫性チェックシステムを回避します。
PASCAL VOCとMS COCOのデータセットでの実験では、ほとんどのケースにおいて、ADCで生成された例は85%以上の成功率を持つオブジェクト検出器を騙し、同時に、最近提案されたコンテキスト整合性チェックを回避し、ほとんどのケースでは80%以上のバイパス率を持つことを示した。
我々の結果は、コンテキストを堅牢にモデル化し、一貫性をチェックする方法はまだ未解決の問題であることを示している。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Exploiting Multi-Object Relationships for Detecting Adversarial Attacks
in Complex Scenes [51.65308857232767]
ディープニューラルネットワーク(DNN)をデプロイするビジョンシステムは、敵の例に弱いことが知られている。
近年の研究では、入力データの固有成分のチェックは、敵攻撃を検出するための有望な方法であることが示された。
言語モデルを用いてコンテキスト整合性チェックを行う新しい手法を開発した。
論文 参考訳(メタデータ) (2021-08-19T00:52:10Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Random Projections for Adversarial Attack Detection [8.684378639046644]
敵の攻撃検出は 2つの観点から 根本的な問題です
本稿では,無作為射影の特殊特性を利用して,清潔で敵対的な例の挙動を特徴付ける手法を提案する。
性能評価は私達の技術が($>0.92$ AUC)技術(SOTA)攻撃戦略の競争状態を上回っていることを示します。
論文 参考訳(メタデータ) (2020-12-11T15:02:28Z) - Connecting the Dots: Detecting Adversarial Perturbations Using Context
Inconsistency [25.039201331256372]
私たちは、トレーニング中のコンテキスト整合性ルールを学習し、テスト中の同じ違反をチェックするシステムで、Deep Neural Networkを強化します。
提案手法では,各オブジェクトクラス毎に自動エンコーダのセットを構築し,追加の対向摂動がコンテキスト整合規則に違反している場合,入力と出力の差分を出力するように適切に訓練する。
PASCAL VOCおよびMS COCOを用いた実験により,本手法は種々の敵攻撃を効果的に検出し,高いROC-AUC(ほとんどの場合0.95以上)を達成することが示された。
論文 参考訳(メタデータ) (2020-07-19T19:46:45Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Challenging the adversarial robustness of DNNs based on error-correcting
output codes [33.46319608673487]
ECOCベースのネットワークは、小さな逆方向の摂動を導入することで、非常に容易に攻撃できる。
敵の例は、予測対象クラスの高い確率を達成するために、このような方法で生成することができる。
論文 参考訳(メタデータ) (2020-03-26T12:14:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。