論文の概要: Zero-Query Transfer Attacks on Context-Aware Object Detectors
- arxiv url: http://arxiv.org/abs/2203.15230v1
- Date: Tue, 29 Mar 2022 04:33:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 13:31:35.662234
- Title: Zero-Query Transfer Attacks on Context-Aware Object Detectors
- Title(参考訳): コンテキスト対応オブジェクト検出器におけるゼロクエリ転送攻撃
- Authors: Zikui Cai, Shantanu Rane, Alejandro E. Brito, Chengyu Song, Srikanth
V. Krishnamurthy, Amit K. Roy-Chowdhury, M. Salman Asif
- Abstract要約: 敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
- 参考スコア(独自算出の注目度): 95.18656036716972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks perturb images such that a deep neural network produces
incorrect classification results. A promising approach to defend against
adversarial attacks on natural multi-object scenes is to impose a
context-consistency check, wherein, if the detected objects are not consistent
with an appropriately defined context, then an attack is suspected. Stronger
attacks are needed to fool such context-aware detectors. We present the first
approach for generating context-consistent adversarial attacks that can evade
the context-consistency check of black-box object detectors operating on
complex, natural scenes. Unlike many black-box attacks that perform repeated
attempts and open themselves to detection, we assume a "zero-query" setting,
where the attacker has no knowledge of the classification decisions of the
victim system. First, we derive multiple attack plans that assign incorrect
labels to victim objects in a context-consistent manner. Then we design and use
a novel data structure that we call the perturbation success probability
matrix, which enables us to filter the attack plans and choose the one most
likely to succeed. This final attack plan is implemented using a
perturbation-bounded adversarial attack algorithm. We compare our zero-query
attack against a few-query scheme that repeatedly checks if the victim system
is fooled. We also compare against state-of-the-art context-agnostic attacks.
Against a context-aware defense, the fooling rate of our zero-query approach is
significantly higher than context-agnostic approaches and higher than that
achievable with up to three rounds of the few-query scheme.
- Abstract(参考訳): ディープニューラルネットワークが誤った分類結果を生成するような、逆向きのイメージを乱す。
自然のマルチオブジェクトシーンに対する敵対的攻撃から防御するための有望なアプローチは、コンテキスト一貫性チェックを課すことであり、もし検出されたオブジェクトが適切に定義されたコンテキストと一致しないなら、攻撃を疑う。
このような文脈認識検出器を騙すには、より強力な攻撃が必要である。
我々は,複雑な自然シーンで動作するブラックボックスオブジェクト検出器のコンテキスト一貫性チェックを回避するための,コンテキスト一貫性のある敵攻撃を生成するための最初のアプローチを提案する。
繰り返し試みを行うブラックボックス攻撃と異なり、攻撃者は被害者システムの分類決定について何も知らない「ゼロクエリ」の設定を仮定する。
まず、不正なラベルをコンテキスト一貫性のある方法で被害者オブジェクトに割り当てる複数のアタックプランを導出する。
そして、我々は摂動成功確率行列と呼ばれる新しいデータ構造を設計し、使用し、攻撃計画をフィルタリングし、最も成功する可能性が最も高いものを選択することができる。
この最終攻撃計画は摂動境界攻撃アルゴリズムを用いて実装される。
ゼロクエリ攻撃と、被害者のシステムが騙されたかどうかを繰り返しチェックする、少数のクエリスキームを比較します。
我々はまた、最先端のコンテキストに依存しない攻撃と比較する。
文脈認識型防御に対して、ゼロクエリアプローチの騙し率は、文脈非依存アプローチよりも著しく高く、最小クエリ方式の最大3ラウンドで達成可能なものよりも高い。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - GLOW: Global Layout Aware Attacks for Object Detection [27.46902978168904]
敵攻撃は、予測器が誤った結果を出力するような摂動画像を狙う。
本稿では,グローバルなレイアウト認識型敵攻撃を発生させることにより,様々な攻撃要求に対処するアプローチを提案する。
実験では,複数種類の攻撃要求を設計し,MS検証セット上でのアイデアの検証を行う。
論文 参考訳(メタデータ) (2023-02-27T22:01:34Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Parallel Rectangle Flip Attack: A Query-based Black-box Attack against
Object Detection [89.08832589750003]
本稿では,攻撃領域近傍の準最適検出を回避するために,ランダム探索による並列矩形フリップ攻撃(PRFA)を提案する。
提案手法は, アンカーベースやアンカーフリーなど, 様々な人気物体検出装置を効果的かつ効率的に攻撃し, 転送可能な対向例を生成する。
論文 参考訳(メタデータ) (2022-01-22T06:00:17Z) - ADC: Adversarial attacks against object Detection that evade Context
consistency checks [55.8459119462263]
文脈整合性チェックさえも、適切に構築された敵の例に対して脆弱であることを示す。
このような防御を覆す実例を生成するための適応型フレームワークを提案する。
我々の結果は、コンテキストを堅牢にモデル化し、一貫性をチェックする方法はまだ未解決の問題であることを示している。
論文 参考訳(メタデータ) (2021-10-24T00:25:09Z) - BAARD: Blocking Adversarial Examples by Testing for Applicability,
Reliability and Decidability [12.079529913120593]
敵防衛は、機械学習モデルを敵攻撃から保護するが、しばしばある種類のモデルや攻撃に適合する。
ケミノフォマティクスにおける応用可能性ドメインの概念から着想を得た。
本稿では,グローバルかつローカルにインプットをチェックする,シンプルで堅牢な3段階データ駆動フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-02T15:24:33Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。