論文の概要: Breaking the Illusion: Consensus-Based Generative Mitigation of Adversarial Illusions in Multi-Modal Embeddings
- arxiv url: http://arxiv.org/abs/2511.21893v1
- Date: Wed, 26 Nov 2025 20:18:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.289095
- Title: Breaking the Illusion: Consensus-Based Generative Mitigation of Adversarial Illusions in Multi-Modal Embeddings
- Title(参考訳): 錯覚を打破する:マルチモーダル・エンベディングにおける逆錯覚の発生軽減
- Authors: Fatemeh Akbarian, Anahita Baninajjar, Yingyi Zhang, Ananth Balashankar, Amir Aminifar,
- Abstract要約: 本研究では,攻撃者の摂動入力から入力を再構成し,自然なアライメントを維持するタスク依存緩和機構を提案する。
最先端のマルチモーダルエンコーダの実験結果から,本手法はイリュージョン攻撃の成功率をほぼゼロに低下させることが示された。
- 参考スコア(独自算出の注目度): 9.062047759372316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-modal foundation models align images, text, and other modalities in a shared embedding space but remain vulnerable to adversarial illusions (Zhang et al., 2025), where imperceptible perturbations disrupt cross-modal alignment and mislead downstream tasks. To counteract the effects of adversarial illusions, we propose a task-agnostic mitigation mechanism that reconstructs the input from the attacker's perturbed input through generative models, e.g., Variational Autoencoders (VAEs), to maintain natural alignment. To further enhance our proposed defense mechanism, we adopt a generative sampling strategy combined with a consensus-based aggregation scheme over the outcomes of the generated samples. Our experiments on the state-of-the-art multi-modal encoders show that our approach substantially reduces the illusion attack success rates to near-zero and improves cross-modal alignment by 4% (42 to 46) and 11% (32 to 43) in unperturbed and perturbed input settings respectively, providing an effective and model-agnostic defense against adversarial illusions.
- Abstract(参考訳): マルチモーダル基礎モデルは、画像、テキスト、その他のモダリティを共有埋め込み空間内に配置するが、敵の錯覚(Zhang et al , 2025)に弱いままである。
本研究では,攻撃者の摂動入力から生成モデル,例えば変分オートエンコーダ(VAE)を通じて入力を再構成し,自然なアライメントを維持するタスク非依存の緩和機構を提案する。
提案する防御機構をさらに強化するため,提案手法は,生成したサンプルの結果に対するコンセンサスに基づくアグリゲーションスキームと組み合わせた生成的サンプリング戦略を採用する。
現状のマルチモーダルエンコーダを用いた実験により, 提案手法は, 錯覚攻撃の成功率をほぼゼロに低下させ, 対向錯覚に対する有効かつモデルに依存しない防御効果を, 無摂動および摂動条件下で4% (42~46) と11% (32~43) に改善することを示した。
関連論文リスト
- ScoreAdv: Score-based Targeted Generation of Natural Adversarial Examples via Diffusion Models [13.250999667915254]
本稿では,ScoreAdvという拡散モデルに基づく逆例を生成する新しい手法を提案する。
本手法は, 無限個の自然逆例を生成でき, 分類モデルだけでなく, 検索モデルも攻撃できる。
その結果、ScoreAdvは推論効率を保ちながら、最先端の攻撃成功率と画像品質を達成できることを示した。
論文 参考訳(メタデータ) (2025-07-08T15:17:24Z) - Active Adversarial Noise Suppression for Image Forgery Localization [56.98050814363447]
本稿では、敵騒音の攻撃効果を抑制するために、防御的摂動を発生させる敵騒音抑制モジュール(ANSM)を提案する。
我々の知る限りでは、画像フォージェリローカライゼーションタスクにおける敵対的防御の報告としてはこれが初めてである。
論文 参考訳(メタデータ) (2025-06-15T14:53:27Z) - Adversarial Robustness for Unified Multi-Modal Encoders via Efficient Calibration [12.763688592842717]
統合マルチモーダルエンコーダにおける敵の脆弱性の包括的研究について述べる。
音声や点雲などの視覚的でない入力は、特に脆弱である。
本手法は,エプシロン=4/255で最大47.3%の強靭性を向上する。
論文 参考訳(メタデータ) (2025-05-17T08:26:04Z) - Boosting Adversarial Transferability with Spatial Adversarial Alignment [56.97809949196889]
ディープニューラルネットワークは、様々なモデルにまたがる転送可能性を示す敵の例に対して脆弱である。
本稿では,アライメント損失を利用してサロゲートモデルを微調整する手法を提案する。
ImageNet上の様々なアーキテクチャの実験では、SAAに基づくアライメントされたサロゲートモデルにより、より高い転送可能な逆の例が得られることが示されている。
論文 参考訳(メタデータ) (2025-01-02T02:35:47Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Ensemble Adversarial Defense via Integration of Multiple Dispersed Low Curvature Models [7.8245455684263545]
本研究では,攻撃伝達性を低減し,アンサンブルの多様性を高めることを目的とする。
損失曲率を表す2階勾配を, 対向的強靭性の重要な要因として同定する。
本稿では,複数変数の低曲率ネットワークモデルをトレーニングするための新しい正規化器を提案する。
論文 参考訳(メタデータ) (2024-03-25T03:44:36Z) - A Perceptual Distortion Reduction Framework for Adversarial Perturbation
Generation [58.6157191438473]
2つの観点からこの問題に対処するための知覚的歪み低減フレームワークを提案する。
知覚的歪みの制約を提案し,それを敵攻撃の客観的機能に追加し,知覚的歪みと攻撃成功率を共同で最適化する。
論文 参考訳(メタデータ) (2021-05-01T15:08:10Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。