論文の概要: Leveraging Local Patch Differences in Multi-Object Scenes for Generative
Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2209.09883v1
- Date: Tue, 20 Sep 2022 17:36:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 18:44:03.623094
- Title: Leveraging Local Patch Differences in Multi-Object Scenes for Generative
Adversarial Attacks
- Title(参考訳): 生成的敵攻撃における多目的シーンの局所パッチ差の活用
- Authors: Abhishek Aich, Shasha Li, Chengyu Song, M. Salman Asif, Srikanth V.
Krishnamurthy, Amit K. Roy-Chowdhury
- Abstract要約: マルチオブジェクト(複数支配対象)画像を用いた対向的摂動を生成するための,より実践的な問題に取り組む。
本稿では,複数場面の特徴空間における特徴空間の局所的差を利用した新たな生成的攻撃(ローカルパッチ差(LPD-Attack))を提案する。
提案手法は, 異なるホワイトボックスとブラックボックスの設定で評価した場合, 非常に伝達性の高い摂動を伴うベースライン生成攻撃よりも優れる。
- 参考スコア(独自算出の注目度): 48.66027897216473
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State-of-the-art generative model-based attacks against image classifiers
overwhelmingly focus on single-object (i.e., single dominant object) images.
Different from such settings, we tackle a more practical problem of generating
adversarial perturbations using multi-object (i.e., multiple dominant objects)
images as they are representative of most real-world scenes. Our goal is to
design an attack strategy that can learn from such natural scenes by leveraging
the local patch differences that occur inherently in such images (e.g.
difference between the local patch on the object `person' and the object `bike'
in a traffic scene). Our key idea is: to misclassify an adversarial
multi-object image, each local patch in the image should confuse the victim
classifier. Based on this, we propose a novel generative attack (called Local
Patch Difference or LPD-Attack) where a novel contrastive loss function uses
the aforesaid local differences in feature space of multi-object scenes to
optimize the perturbation generator. Through various experiments across diverse
victim convolutional neural networks, we show that our approach outperforms
baseline generative attacks with highly transferable perturbations when
evaluated under different white-box and black-box settings.
- Abstract(参考訳): 画像分類器に対する最先端の生成モデルに基づく攻撃は、単一のオブジェクト(すなわち単一の支配的オブジェクト)イメージに圧倒的に焦点を当てている。
このような設定と異なり、現実のシーンを代表している多目的画像(つまり、複数の支配的物体)を用いて、対向的摂動を生成するというより実践的な問題に取り組む。
私たちの目標は、このような画像に固有の局所パッチの違い(例えば、オブジェクトの「人」の局所パッチと、トラフィックシーンの「バイク」のオブジェクトの違い)を利用して、このような自然なシーンから学ぶことができる攻撃戦略を設計することです。
敵のマルチオブジェクトイメージを誤分類するには、イメージ内の各ローカルパッチが被害者の分類器を混乱させる必要があります。
そこで本研究では,マルチオブジェクトシーンの特徴空間の局所的な差異を利用して摂動生成を最適化する,新たな生成的攻撃(ローカルパッチ差(LPD-Attack))を提案する。
様々な被害者畳み込みニューラルネットワークの様々な実験を通して,ホワイトボックスとブラックボックスの設定で評価した場合,本手法がベースライン生成攻撃よりも高い摂動特性を持つことを示す。
関連論文リスト
- DiffUHaul: A Training-Free Method for Object Dragging in Images [78.93531472479202]
DiffUHaulと呼ばれるオブジェクトドラッグタスクのためのトレーニング不要な手法を提案する。
まず、各認知段階に注意マスキングを適用して、各生成を異なるオブジェクトにまたがってよりゆがみやすくする。
初期のデノナイジングステップでは、ソース画像とターゲット画像の注意特徴を補間して、新しいレイアウトを元の外観とスムーズに融合させる。
論文 参考訳(メタデータ) (2024-06-03T17:59:53Z) - Unsegment Anything by Simulating Deformation [67.10966838805132]
「無声化」とは、「無声化の権利」を画像に付与する作業である。
我々は、全てのプロンプトベースセグメンテーションモデルに対して、転送可能な敵攻撃を実現することを目指している。
本手法は, 画像エンコーダの特徴を破壊し, 即時攻撃を実現することに焦点を当てる。
論文 参考訳(メタデータ) (2024-04-03T09:09:42Z) - HEAP: Unsupervised Object Discovery and Localization with Contrastive
Grouping [29.678756772610797]
教師なしオブジェクトの発見と位置決めは、監督なしで画像内のオブジェクトを検出し、セグメント化することを目的としている。
近年の取り組みは、自己監督型トランスフォーマー機能を利用して、有能な前景物体を識別する顕著な可能性を実証している。
これらの問題に対処するために、Herarchical mErging framework via contrAstive grouPing (HEAP) を紹介する。
論文 参考訳(メタデータ) (2023-12-29T06:46:37Z) - AnyDoor: Zero-shot Object-level Image Customization [63.44307304097742]
ユーザが指定した場所の新しいシーンにターゲットオブジェクトをテレポートする機能を備えた拡散ベースのイメージジェネレータであるAnyDoorを紹介する。
我々のモデルは1回のみ訓練され、推論段階では多様なオブジェクトとシーンの組み合わせに懸命に一般化される。
論文 参考訳(メタデータ) (2023-07-18T17:59:02Z) - Attacking Object Detector Using A Universal Targeted Label-Switch Patch [44.44676276867374]
深層学習に基づく物体検出装置(OD)に対する敵対的攻撃は,近年広く研究されている。
以前の研究では、ターゲットオブジェクトにパッチを適用したODに対する誤分類攻撃は提案されなかった。
我々は,最先端のオブジェクト検出器であるYOLOに対する,新しい,普遍的で,標的とした,ラベルスウィッチ攻撃を提案する。
論文 参考訳(メタデータ) (2022-11-16T12:08:58Z) - Object-Attentional Untargeted Adversarial Attack [11.800889173823945]
本研究では,標的外攻撃に対する対象意図的攻撃法を提案する。
具体的には、まず、対象検出領域をYOLOv4からHVPNetから有能な対象検出領域と交差させてオブジェクト領域を生成する。
次に,SimBA(Simple Black-box Adversarial Attack)を利用して,検出対象領域に対してのみ敵攻撃を行う。
論文 参考訳(メタデータ) (2022-10-16T07:45:13Z) - GAMA: Generative Adversarial Multi-Object Scene Attacks [48.33120361498787]
本稿では,多目的シーンに対する敵攻撃に対する生成モデルを用いた最初のアプローチを提案する。
我々はこの攻撃アプローチをGAMA(Generative Adversarial Multi-Object scene Attacks)と呼ぶ。
論文 参考訳(メタデータ) (2022-09-20T06:40:54Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。