論文の概要: Object-Attentional Untargeted Adversarial Attack
- arxiv url: http://arxiv.org/abs/2210.08472v1
- Date: Sun, 16 Oct 2022 07:45:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 19:20:18.675344
- Title: Object-Attentional Untargeted Adversarial Attack
- Title(参考訳): 対象意図しない敵攻撃
- Authors: Chao Zhou, Yuan-Gen Wang, Guopu Zhu
- Abstract要約: 本研究では,標的外攻撃に対する対象意図的攻撃法を提案する。
具体的には、まず、対象検出領域をYOLOv4からHVPNetから有能な対象検出領域と交差させてオブジェクト領域を生成する。
次に,SimBA(Simple Black-box Adversarial Attack)を利用して,検出対象領域に対してのみ敵攻撃を行う。
- 参考スコア(独自算出の注目度): 11.800889173823945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are facing severe threats from adversarial attacks. Most
existing black-box attacks fool target model by generating either global
perturbations or local patches. However, both global perturbations and local
patches easily cause annoying visual artifacts in adversarial example. Compared
with some smooth regions of an image, the object region generally has more
edges and a more complex texture. Thus small perturbations on it will be more
imperceptible. On the other hand, the object region is undoubtfully the
decisive part of an image to classification tasks. Motivated by these two
facts, we propose an object-attentional adversarial attack method for
untargeted attack. Specifically, we first generate an object region by
intersecting the object detection region from YOLOv4 with the salient object
detection (SOD) region from HVPNet. Furthermore, we design an activation
strategy to avoid the reaction caused by the incomplete SOD. Then, we perform
an adversarial attack only on the detected object region by leveraging Simple
Black-box Adversarial Attack (SimBA). To verify the proposed method, we create
a unique dataset by extracting all the images containing the object defined by
COCO from ImageNet-1K, named COCO-Reduced-ImageNet in this paper. Experimental
results on ImageNet-1K and COCO-Reduced-ImageNet show that under various system
settings, our method yields the adversarial example with better perceptual
quality meanwhile saving the query budget up to 24.16\% compared to the
state-of-the-art approaches including SimBA.
- Abstract(参考訳): ディープニューラルネットワークは、敵の攻撃による深刻な脅威に直面している。
既存のブラックボックスのほとんどは、グローバル摂動またはローカルパッチを発生させることで、愚かなターゲットモデルを攻撃する。
しかし、グローバル摂動とローカルパッチの両方が、逆向きの例では不快なビジュアルアーティファクトを引き起こす。
画像のいくつかの滑らかな領域と比較すると、オブジェクト領域は一般的によりエッジとより複雑なテクスチャを持つ。
したがって、それに対する小さな摂動はより受け入れがたい。
一方、対象領域は間違いなく、分類タスクに対する画像の決定的な部分である。
この2つの事実に動機づけられ,非標的攻撃に対する対向攻撃法を提案する。
具体的には、まず、オブジェクト検出領域をYOLOv4からHVPNetからサルエントオブジェクト検出(SOD)領域と交差させてオブジェクト領域を生成する。
さらに,不完全なSODによる反応を回避するために,活性化戦略を設計する。
次に,SimBA(Simple Black-box Adversarial Attack)を利用して,検出対象領域に対してのみ敵攻撃を行う。
提案手法を検証するため,本論文では,画像Net-1KからCOCOが定義したオブジェクトを含む画像をすべて抽出し,独自のデータセットを作成する。
ImageNet-1K と COCO-Reduced-ImageNet の実験結果から,SimBA などの最先端手法と比較して,クエリ予算を最大 24.16 % 削減しながら, 高い知覚的品質の対人例が得られることがわかった。
関連論文リスト
- ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - Rethinking the Localization in Weakly Supervised Object Localization [51.29084037301646]
弱教師付きオブジェクトローカライゼーション(WSOL)は、コンピュータビジョンにおいて最も人気があり、困難なタスクの1つである。
最近、WSOLを2つの部分(クラスに依存しないオブジェクトのローカライゼーションとオブジェクトの分類)に分割することが、このタスクの最先端のパイプラインになっている。
本研究では,SCRを複数物体の局所化のためのバイナリクラス検出器(BCD)に置き換えることを提案する。
論文 参考訳(メタデータ) (2023-08-11T14:38:51Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Leveraging Local Patch Differences in Multi-Object Scenes for Generative
Adversarial Attacks [48.66027897216473]
マルチオブジェクト(複数支配対象)画像を用いた対向的摂動を生成するための,より実践的な問題に取り組む。
本稿では,複数場面の特徴空間における特徴空間の局所的差を利用した新たな生成的攻撃(ローカルパッチ差(LPD-Attack))を提案する。
提案手法は, 異なるホワイトボックスとブラックボックスの設定で評価した場合, 非常に伝達性の高い摂動を伴うベースライン生成攻撃よりも優れる。
論文 参考訳(メタデータ) (2022-09-20T17:36:32Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Structure-Preserving Progressive Low-rank Image Completion for Defending
Adversarial Attacks [20.700098449823024]
ディープニューラルネットワークは、局所的な画像の詳細を分析し、推論層に沿って情報を要約することでオブジェクトを認識し、最終的な決定を導出する。
入力画像の小さな洗練されたノイズは、ネットワーク推測経路に沿って蓄積し、ネットワーク出力で間違った決定を下すことができる。
人間の目は、ローカルイメージテクスチャではなく、グローバルな構造とセマンティックなキューに基づいてオブジェクトを認識します。
論文 参考訳(メタデータ) (2021-03-04T01:24:15Z) - PICA: A Pixel Correlation-based Attentional Black-box Adversarial Attack [37.15301296824337]
PICAと呼ばれる画素相関に基づく注目ブラックボックス対向攻撃を提案する。
PICAは、既存のブラックボックス攻撃と比較して高解像度の逆例を生成するのが効率的である。
論文 参考訳(メタデータ) (2021-01-19T09:53:52Z) - Watch out! Motion is Blurring the Vision of Your Deep Neural Networks [34.51270823371404]
最先端のディープニューラルネットワーク(DNN)は、付加的なランダムなノイズ摂動を伴う敵の例に対して脆弱である。
そこで本研究では,視覚的に自然な動きを呈する対向攻撃の例を生成できる新しい対向攻撃法を提案する。
NeurIPS'17競合競合データセットに関する総合的な評価は、ABBAの有効性を示している。
論文 参考訳(メタデータ) (2020-02-10T02:33:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。