論文の概要: A Generative Adversarial Approach to Adversarial Attacks Guided by Contrastive Language-Image Pre-trained Model
- arxiv url: http://arxiv.org/abs/2511.01317v1
- Date: Mon, 03 Nov 2025 08:02:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.169903
- Title: A Generative Adversarial Approach to Adversarial Attacks Guided by Contrastive Language-Image Pre-trained Model
- Title(参考訳): コントラスト言語画像事前学習モデルによる敵攻撃生成手法
- Authors: Sampriti Soor, Alik Pramanick, Jothiprakash K, Arijit Sur,
- Abstract要約: CLIPモデルを用いて、高効率で視覚的に知覚できない対人摂動を発生させる生成的対人攻撃法を提案する。
我々のアプローチは、サリエンシをベースとしたオートエンコーダからの集中摂動戦略と、GAMA(Generative Adversarial Multi-Object Scene Attacks)に似た異種テキスト埋め込みを統合する。
- 参考スコア(独自算出の注目度): 12.15621649989295
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rapid growth of deep learning has brought about powerful models that can handle various tasks, like identifying images and understanding language. However, adversarial attacks, an unnoticed alteration, can deceive models, leading to inaccurate predictions. In this paper, a generative adversarial attack method is proposed that uses the CLIP model to create highly effective and visually imperceptible adversarial perturbations. The CLIP model's ability to align text and image representation helps incorporate natural language semantics with a guided loss to generate effective adversarial examples that look identical to the original inputs. This integration allows extensive scene manipulation, creating perturbations in multi-object environments specifically designed to deceive multilabel classifiers. Our approach integrates the concentrated perturbation strategy from Saliency-based Auto-Encoder (SSAE) with the dissimilar text embeddings similar to Generative Adversarial Multi-Object Scene Attacks (GAMA), resulting in perturbations that both deceive classification models and maintain high structural similarity to the original images. The model was tested on various tasks across diverse black-box victim models. The experimental results show that our method performs competitively, achieving comparable or superior results to existing techniques, while preserving greater visual fidelity.
- Abstract(参考訳): ディープラーニングの急速な成長は、画像の識別や言語理解など、さまざまなタスクを処理できる強力なモデルをもたらしました。
しかし、敵の攻撃は、未知の修正であり、モデルを欺くことができ、不正確な予測につながる。
本稿では,CLIPモデルを用いて,高効率かつ視覚的に知覚できない対人摂動を発生させる生成的対人攻撃法を提案する。
CLIPモデルのテキストと画像表現の整合性は、自然言語のセマンティクスをガイド付き損失に組み込むことで、元の入力と同一に見える効果的な敵の例を生成するのに役立つ。
この統合により、広いシーン操作が可能となり、マルチラベル分類器を欺くために特別に設計されたマルチオブジェクト環境における摂動を生成する。
提案手法は,Saliency-based Auto-Encoder (SSAE) の集中摂動戦略と,GAMA (Generative Adversarial Multi-Object Scene Attacks) と類似した異種テキスト埋め込みを統合した。
このモデルは多様なブラックボックスの犠牲者モデルで様々なタスクでテストされた。
実験の結果,既存の手法に匹敵する,あるいは優れた結果が得られるとともに,視覚的忠実度も向上した。
関連論文リスト
- Robust image classification with multi-modal large language models [4.709926629434273]
逆の例では、ディープニューラルネットワークが不正確な予測を高い信頼性で行う可能性がある。
これらの脆弱性を軽減するために、事前にモデルを強化するために、敵の訓練と検出に基づく防御が提案されている。
本稿では,これらの防衛を多モード情報と組み合わせ,補完する新しい防衛手法であるMultiShieldを提案する。
論文 参考訳(メタデータ) (2024-12-13T18:49:25Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - DiffuseDef: Improved Robustness to Adversarial Attacks via Iterative Denoising [35.10201243366131]
DiffuseDefは、言語分類タスクのための新しい敵防御手法である。
拡散層をエンコーダと分類器の間のデノイザとして組み込む。
これは、一般的なブラックボックスやホワイトボックスの敵攻撃に対して最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-06-28T22:36:17Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Diverse and Tailored Image Generation for Zero-shot Multi-label Classification [3.354528906571718]
ゼロショットのマルチラベル分類は、人間のアノテーションを使わずに、目に見えないラベルで予測を実行する能力について、かなりの注目を集めている。
一般的なアプローチでは、目に見えないものに対する不完全なプロキシとしてクラスをよく使用します。
本稿では,未確認ラベル上でのプロキシレストレーニングに適したトレーニングセットを構築するために,合成データを生成する,革新的なソリューションを提案する。
論文 参考訳(メタデータ) (2024-04-04T01:34:36Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Counterfactual Image Generation for adversarially robust and
interpretable Classifiers [1.3859669037499769]
本稿では,GAN(Generative Adrial Networks)を基盤として,画像から画像への変換を利用した統合フレームワークを提案する。
これは、分類器と識別器を1つのモデルに組み合わせて、実際の画像をそれぞれのクラスに属性付け、生成されたイメージを「フェイク」として生成することで達成される。
モデルが敵攻撃に対するロバスト性の向上を示すことを示すとともに,判別器の「フェイクネス」値が予測の不確かさの指標となることを示す。
論文 参考訳(メタデータ) (2023-10-01T18:50:29Z) - GAMA: Generative Adversarial Multi-Object Scene Attacks [48.33120361498787]
本稿では,多目的シーンに対する敵攻撃に対する生成モデルを用いた最初のアプローチを提案する。
我々はこの攻撃アプローチをGAMA(Generative Adversarial Multi-Object scene Attacks)と呼ぶ。
論文 参考訳(メタデータ) (2022-09-20T06:40:54Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。