論文の概要: Improving Generalizability and Undetectability for Targeted Adversarial Attacks on Multimodal Pre-trained Models
- arxiv url: http://arxiv.org/abs/2509.19994v1
- Date: Wed, 24 Sep 2025 11:00:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.784488
- Title: Improving Generalizability and Undetectability for Targeted Adversarial Attacks on Multimodal Pre-trained Models
- Title(参考訳): マルチモーダル事前学習モデルにおける目標対向攻撃の一般化性と非検出性の改善
- Authors: Zhifang Zhang, Jiahan Zhang, Shengjie Zhou, Qi Wei, Shuo He, Feng Liu, Lei Feng,
- Abstract要約: マルチモーダル事前学習モデルには、一般化可能性と非検出性という2つの側面がある。
具体的には、工芸目的敵例(AE)は、クロスモーダルアライメントタスクにおいて、部分的に知られている、または意味的に類似したターゲットに限定的な一般化を示す。
本稿では,複数のソース・モーダル・ターゲット・モーダル・プロキシを利用してターゲットAEを最適化するPTA(Proxy Targeted Attack)を提案する。
- 参考スコア(独自算出の注目度): 20.436364410114752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimodal pre-trained models (e.g., ImageBind), which align distinct data modalities into a shared embedding space, have shown remarkable success across downstream tasks. However, their increasing adoption raises serious security concerns, especially regarding targeted adversarial attacks. In this paper, we show that existing targeted adversarial attacks on multimodal pre-trained models still have limitations in two aspects: generalizability and undetectability. Specifically, the crafted targeted adversarial examples (AEs) exhibit limited generalization to partially known or semantically similar targets in cross-modal alignment tasks (i.e., limited generalizability) and can be easily detected by simple anomaly detection methods (i.e., limited undetectability). To address these limitations, we propose a novel method called Proxy Targeted Attack (PTA), which leverages multiple source-modal and target-modal proxies to optimize targeted AEs, ensuring they remain evasive to defenses while aligning with multiple potential targets. We also provide theoretical analyses to highlight the relationship between generalizability and undetectability and to ensure optimal generalizability while meeting the specified requirements for undetectability. Furthermore, experimental results demonstrate that our PTA can achieve a high success rate across various related targets and remain undetectable against multiple anomaly detection methods.
- Abstract(参考訳): 異なるデータモダリティを共有埋め込み空間に整列するマルチモーダル事前学習モデル(例:ImageBind)は、下流タスクで顕著な成功を収めている。
しかし、彼らの採用の増加は、特に標的となる敵の攻撃に関して、深刻なセキュリティ上の懸念を提起する。
本稿では,マルチモーダル事前学習モデルに対する既存の攻撃が,一般化可能性と非検出性という2つの面で制限されていることを示す。
具体的には、工芸目的敵例(AE)は、クロスモーダルアライメントタスク(つまり、限定的な一般化可能性)において、部分的に既知の、または意味的に類似したターゲットに限定的な一般化を示し、単純な異常検出方法(すなわち、限定的な検出可能性)によって容易に検出できる。
これらの制約に対処するために,複数のソース・モーダル・ターゲット・モーダル・プロキシを活用して目標AEを最適化し,複数の潜在的なターゲットと整合しながら防御から逃れられるようにする,プロキシ・ターゲット・アタック(PTA)と呼ばれる新しい手法を提案する。
また, 一般化可能性と非検出可能性の関係を明らかにする理論解析を行い, 検出不可能性の要件を満たした上で, 最適一般化性を確保する。
さらに, 実験結果から, PTAは様々な対象に対して高い成功率を達成でき, 複数の異常検出方法に対して検出不能であることが明らかとなった。
関連論文リスト
- AnywhereDoor: Multi-Target Backdoor Attacks on Object Detection [9.539021752700823]
AnywhereDoorは、オブジェクト検出のためのマルチターゲットバックドアアタックである。
敵は、すべてのオブジェクトクラスまたは特定のオブジェクトクラスをまたいで、オブジェクトを消したり、新しいオブジェクトを作ったり、ラベルを間違えたりすることができる。
このような柔軟な制御のための既存の手法の適応と比較して、攻撃成功率を26%向上させる。
論文 参考訳(メタデータ) (2025-03-09T09:24:24Z) - AnywhereDoor: Multi-Target Backdoor Attacks on Object Detection [9.539021752700823]
AnywhereDoorは、オブジェクト検出のためのマルチターゲットバックドアアタックである。
敵は、すべてのオブジェクトクラスまたは特定のオブジェクトクラスをまたいで、オブジェクトを消したり、新しいオブジェクトを作ったり、ラベルを間違えたりすることができる。
このような柔軟な制御のための既存の手法の適応と比較して、攻撃成功率を26%向上させる。
論文 参考訳(メタデータ) (2024-11-21T15:50:59Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - A Minimax Approach Against Multi-Armed Adversarial Attacks Detection [31.971443221041174]
多武装の敵攻撃は、最先端の検出器を騙すことに成功している。
本稿では,複数の事前学習型検出器のソフト・確率出力をミニマックス・アプローチで集約する手法を提案する。
我々は,アグリゲーションが,多腕対人攻撃に対する個々の最先端検出器より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-04T18:21:22Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - MEAD: A Multi-Armed Approach for Evaluation of Adversarial Examples
Detectors [24.296350262025552]
いくつかの攻撃戦略に基づいて検知器を評価するための新しいフレームワークMEADを提案する。
そのうちの1つは、攻撃を起こすための3つの新しい目的である。
提案したパフォーマンス指標は最悪のシナリオに基づいている。
論文 参考訳(メタデータ) (2022-06-30T17:05:45Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。