論文の概要: GLOW: Global Layout Aware Attacks for Object Detection
- arxiv url: http://arxiv.org/abs/2302.14166v1
- Date: Mon, 27 Feb 2023 22:01:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 18:51:44.661406
- Title: GLOW: Global Layout Aware Attacks for Object Detection
- Title(参考訳): GLOW: オブジェクト検出のためのグローバルレイアウトアウェアアタック
- Authors: Jun Bao, Buyu Liu, Jianping Fan and Jun Yu
- Abstract要約: 敵攻撃は、予測器が誤った結果を出力するような摂動画像を狙う。
本稿では,グローバルなレイアウト認識型敵攻撃を発生させることにより,様々な攻撃要求に対処するアプローチを提案する。
実験では,複数種類の攻撃要求を設計し,MS検証セット上でのアイデアの検証を行う。
- 参考スコア(独自算出の注目度): 27.46902978168904
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Adversarial attacks aims to perturb images such that a predictor outputs
incorrect results. Due to the limited research in structured attacks, imposing
consistency checks on natural multi-object scenes is a promising yet practical
defense against conventional adversarial attacks. More desired attacks, to this
end, should be able to fool defenses with such consistency checks. Therefore,
we present the first approach GLOW that copes with various attack requests by
generating global layout-aware adversarial attacks where both categorical and
geometric layout constraints are explicitly established. Specifically, we focus
on object detection task and given a victim image, GLOW first localizes victim
objects according to target labels. And then it generates multiple attack
plans, together with their context-consistency scores. Our proposed GLOW, on
the one hand, is capable of handling various types of requests, including
single or multiple victim objects, with or without specified victim objects. On
the other hand, it produces a consistency score for each attack plan,
reflecting the overall contextual consistency that both semantic category and
global scene layout are considered. In experiment, we design multiple types of
attack requests and validate our ideas on MS COCO validation set. Extensive
experimental results demonstrate that we can achieve about 40$\%$ average
relative improvement compared to state-of-the-art methods in conventional
single object attack request; Moreover, our method outperforms SOTAs
significantly on more generic attack requests by at least 30$\%$; Finally, our
method produces superior performance under challenging zero-query black-box
setting, or 30$\%$ better than SOTAs. Our code, model and attack requests would
be made available.
- Abstract(参考訳): 敵攻撃は、予測器が誤った結果を出力するような摂動画像を意図している。
構造化攻撃の研究が限られているため、自然のマルチオブジェクトシーンに一貫性チェックを課すことは、従来の敵の攻撃に対して有望だが実用的な防御である。
より望ましい攻撃は、このような一貫性チェックで防御を騙すことができるはずである。
そこで我々は,グローバルなレイアウトアウェアの敵攻撃を発生させることで,多様な攻撃要求に対処する最初のアプローチGLOWを提案する。
具体的には,対象検出タスクに注目し,被害者画像が与えられた場合,まずglowはターゲットラベルに従って対象オブジェクトをローカライズする。
そして、コンテキスト整合性スコアとともに、複数のアタックプランを生成する。
一方、提案したGLOWは、特定の犠牲者オブジェクトの有無にかかわらず、単一または複数の犠牲者オブジェクトを含む様々なタイプのリクエストを処理できる。
一方,攻撃計画毎の一貫性スコアを生成し,セマンティックなカテゴリとグローバルなシーンレイアウトの両方が考慮される全体的なコンテキスト整合性を反映する。
実験では,複数種類の攻撃要求を設計し,MS COCO検証セット上での考え方を検証する。
実験の結果,従来の単一オブジェクト攻撃要求の最先端手法と比較して平均40$\%の相対的改善が達成できた。さらに,本手法は,より汎用的な攻撃要求に対して,少なくとも30$\%の精度でSOTAよりも高い性能を達成できた。
私たちのコード、モデル、アタックリクエストが利用可能になります。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - AttackBench: Evaluating Gradient-based Attacks for Adversarial Examples [26.37278338032268]
アドリシャルな例は、通常、勾配ベースの攻撃に最適化される。
それぞれ異なる実験装置を用いて前任者を上回る性能を発揮する。
これは過度に最適化され、偏見のある評価を提供する。
論文 参考訳(メタデータ) (2024-04-30T11:19:05Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - PRAT: PRofiling Adversarial aTtacks [52.693011665938734]
PRofiling Adversarial aTacks (PRAT) の新たな問題点について紹介する。
敵対的な例として、PRATの目的は、それを生成するのに使用される攻撃を特定することである。
AIDを用いてPRATの目的のための新しいフレームワークを考案する。
論文 参考訳(メタデータ) (2023-09-20T07:42:51Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。