論文の概要: GAMA: Generative Adversarial Multi-Object Scene Attacks
- arxiv url: http://arxiv.org/abs/2209.09502v1
- Date: Tue, 20 Sep 2022 06:40:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 18:36:20.723525
- Title: GAMA: Generative Adversarial Multi-Object Scene Attacks
- Title(参考訳): GAMA: ジェネレーティブな対戦型マルチオブジェクトシーンアタック
- Authors: Abhishek Aich, Calvin Khang-Ta, Akash Gupta, Chengyu Song, Srikanth V.
Krishnamurthy, M. Salman Asif, Amit K. Roy-Chowdhury
- Abstract要約: 本稿では,多目的シーンに対する敵攻撃に対する生成モデルを用いた最初のアプローチを提案する。
我々はこの攻撃アプローチをGAMA(Generative Adversarial Multi-Object scene Attacks)と呼ぶ。
- 参考スコア(独自算出の注目度): 48.33120361498787
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The majority of methods for crafting adversarial attacks have focused on
scenes with a single dominant object (e.g., images from ImageNet). On the other
hand, natural scenes include multiple dominant objects that are semantically
related. Thus, it is crucial to explore designing attack strategies that look
beyond learning on single-object scenes or attack single-object victim
classifiers. Due to their inherent property of strong transferability of
perturbations to unknown models, this paper presents the first approach of
using generative models for adversarial attacks on multi-object scenes. In
order to represent the relationships between different objects in the input
scene, we leverage upon the open-sourced pre-trained vision-language model CLIP
(Contrastive Language-Image Pre-training), with the motivation to exploit the
encoded semantics in the language space along with the visual space. We call
this attack approach Generative Adversarial Multi-object scene Attacks (GAMA).
GAMA demonstrates the utility of the CLIP model as an attacker's tool to train
formidable perturbation generators for multi-object scenes. Using the joint
image-text features to train the generator, we show that GAMA can craft potent
transferable perturbations in order to fool victim classifiers in various
attack settings. For example, GAMA triggers ~16% more misclassification than
state-of-the-art generative approaches in black-box settings where both the
classifier architecture and data distribution of the attacker are different
from the victim. Our code will be made publicly available soon.
- Abstract(参考訳): 敵攻撃を作ろうという手法の大半は、単一の支配的なオブジェクト(例えばImageNetの画像)を持つシーンに焦点を当てている。
一方、自然のシーンには、意味的に関連づけられた複数の支配的なオブジェクトが含まれている。
したがって、単一オブジェクトシーンの学習を超えた攻撃戦略を設計することや、単一オブジェクトの被害者分類器を攻撃することが重要である。
未知のモデルに対する摂動の強い伝達可能性という本質的性質から,多目的シーンに対する攻撃に対して生成モデルを用いた最初のアプローチを提案する。
入力シーンにおける異なるオブジェクト間の関係を表現するために、私たちは、視覚空間と共に言語空間で符号化された意味論を活用すべく、オープンソースの視覚言語モデルクリップ(contrastive language-image pre-training)を活用しています。
我々はこの攻撃アプローチをGAMA(Generative Adversarial Multi-Object scene Attacks)と呼ぶ。
GAMAは攻撃者のツールとしてCLIPモデルの有用性を実証し、多目的シーンのための強迫性摂動ジェネレータを訓練する。
GAMAは, 共同画像テキスト機能を用いて, 様々な攻撃環境において, 被害者の分類を騙すために, 強力なトランスファー可能な摂動を実現できることを示す。
例えば、gamaは、攻撃者の分類アーキテクチャとデータ分散が被害者と異なるブラックボックス設定において、最先端のジェネレーティブアプローチよりも16%以上の誤分類をトリガーする。
私たちのコードはまもなく公開されます。
関連論文リスト
- Hiding-in-Plain-Sight (HiPS) Attack on CLIP for Targetted Object Removal from Images [3.537369004801589]
Hiding-in-Plain-Sight (HiPS) 攻撃はターゲットオブジェクトを選択的に隠蔽することでモデル予測を微調整する
本稿では,HPS-clsとHiPS-capの2種類のHiPS攻撃モデルを提案し,下流画像キャプションモデルへの転送の有効性を実証した。
論文 参考訳(メタデータ) (2024-10-16T20:11:32Z) - CLIP-Guided Generative Networks for Transferable Targeted Adversarial Attacks [52.29186466633699]
トランスファー可能な敵攻撃は、ブラックボックスのシナリオで敵が特定した予測を出力するモデルを誤解させることを目的としている。
textitsingle-target 生成攻撃は、高い転送可能な摂動を生成するために、各ターゲットクラスのジェネレータを訓練する。
textbfCLIP-guided textbfGenerative textbfNetwork with textbfCross-attention module (CGNC) to enhance multi-target attack。
論文 参考訳(メタデータ) (2024-07-14T12:30:32Z) - Stealthy Targeted Backdoor Attacks against Image Captioning [16.409633596670368]
本稿では,画像キャプションモデルに対するバックドア攻撃を標的とした新たな手法を提案する。
本手法は,物体検出に普遍摂動技術を活用することで,まず特別なトリガを学習する。
我々のアプローチは、モデルクリーンパフォーマンスに無視できる影響を与えながら、高い攻撃成功率を達成することができる。
論文 参考訳(メタデータ) (2024-06-09T18:11:06Z) - Adversarial Robustness for Visual Grounding of Multimodal Large Language Models [49.71757071535619]
MLLM(Multi-modal Large Language Models)は近年,様々な視覚言語タスクのパフォーマンス向上を実現している。
MLLMでは、視覚的グラウンドリングの対角的堅牢性は未発見のままである。
本稿では,次の3つの攻撃パラダイムを提案する。
論文 参考訳(メタデータ) (2024-05-16T10:54:26Z) - Unsegment Anything by Simulating Deformation [67.10966838805132]
「無声化」とは、「無声化の権利」を画像に付与する作業である。
我々は、全てのプロンプトベースセグメンテーションモデルに対して、転送可能な敵攻撃を実現することを目指している。
本手法は, 画像エンコーダの特徴を破壊し, 即時攻撃を実現することに焦点を当てる。
論文 参考訳(メタデータ) (2024-04-03T09:09:42Z) - GLOW: Global Layout Aware Attacks for Object Detection [27.46902978168904]
敵攻撃は、予測器が誤った結果を出力するような摂動画像を狙う。
本稿では,グローバルなレイアウト認識型敵攻撃を発生させることにより,様々な攻撃要求に対処するアプローチを提案する。
実験では,複数種類の攻撃要求を設計し,MS検証セット上でのアイデアの検証を行う。
論文 参考訳(メタデータ) (2023-02-27T22:01:34Z) - Leveraging Local Patch Differences in Multi-Object Scenes for Generative
Adversarial Attacks [48.66027897216473]
マルチオブジェクト(複数支配対象)画像を用いた対向的摂動を生成するための,より実践的な問題に取り組む。
本稿では,複数場面の特徴空間における特徴空間の局所的差を利用した新たな生成的攻撃(ローカルパッチ差(LPD-Attack))を提案する。
提案手法は, 異なるホワイトボックスとブラックボックスの設定で評価した場合, 非常に伝達性の高い摂動を伴うベースライン生成攻撃よりも優れる。
論文 参考訳(メタデータ) (2022-09-20T17:36:32Z) - Context-Aware Transfer Attacks for Object Detection [51.65308857232767]
本稿では,オブジェクト検出のためのコンテキスト認識攻撃を新たに生成する手法を提案する。
オブジェクトとその相対的な位置と大きさの共起をコンテキスト情報として利用することにより、ターゲットの誤分類攻撃をうまく生成できることを示す。
論文 参考訳(メタデータ) (2021-12-06T18:26:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。