論文の概要: ARMOR: Agentic Reasoning for Methods Orchestration and Reparameterization for Robust Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2601.18386v1
- Date: Mon, 26 Jan 2026 11:36:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.802798
- Title: ARMOR: Agentic Reasoning for Methods Orchestration and Reparameterization for Robust Adversarial Attacks
- Title(参考訳): ARMOR:ロバスト・アタックの編成と再パラメータ化のためのエージェント推論
- Authors: Gabriel Lee Jun Rong, Christos Korgialas, Dion Jia Xu Ho, Pai Chet Ng, Xiaoxiao Miao, Konstantinos N. Plataniotis,
- Abstract要約: ARMORは3つの正反対プリミティブ、Carini-Wagner(CW)、Jacobian-based Saliency Map Attack(JSMA)、空間変換攻撃(STA)を編成する。
標準ベンチマークでは、ARMORはアーキテクチャ間転送の改善を実現し、両方の設定を確実に騙す。
- 参考スコア(独自算出の注目度): 28.44035744358622
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing automated attack suites operate as static ensembles with fixed sequences, lacking strategic adaptation and semantic awareness. This paper introduces the Agentic Reasoning for Methods Orchestration and Reparameterization (ARMOR) framework to address these limitations. ARMOR orchestrates three canonical adversarial primitives, Carlini-Wagner (CW), Jacobian-based Saliency Map Attack (JSMA), and Spatially Transformed Attacks (STA) via Vision Language Models (VLM)-guided agents that collaboratively generate and synthesize perturbations through a shared ``Mixing Desk". Large Language Models (LLMs) adaptively tune and reparameterize parallel attack agents in a real-time, closed-loop system that exploits image-specific semantic vulnerabilities. On standard benchmarks, ARMOR achieves improved cross-architecture transfer and reliably fools both settings, delivering a blended output for blind targets and selecting the best attack or blended attacks for white-box targets using a confidence-and-SSIM score.
- Abstract(参考訳): 既存の自動攻撃スイートは、固定シーケンスで静的アンサンブルとして動作し、戦略的な適応とセマンティックな認識が欠如している。
本稿では,これらの制約に対処するために,メソッドオーケストレーションとパラメータ化のためのエージェント推論(ARMOR)フレームワークを提案する。
ARMORは3つの標準的な敵対的プリミティブ、Carini-Wagner(CW)、Jacobian-based Saliency Map Attack(JSMA)、Vision Language Models(VLM)誘導エージェントを介して空間変換攻撃(STA)を編成する。
大規模言語モデル(LLM)は、画像固有のセマンティック脆弱性を利用するクローズループシステムにおいて、並列攻撃エージェントを適応的にチューニングし、再パラメータ化する。
標準ベンチマークでは、ARMORはクロスアーキテクチャ転送の改善を実現し、両方の設定を確実に騙し、ブラインドターゲットのブレンドアウトプットを提供し、信頼とSSIMスコアを使用して最高の攻撃またはホワイトボックスターゲットのブレンドアタックを選択する。
関連論文リスト
- CyGATE: Game-Theoretic Cyber Attack-Defense Engine for Patch Strategy Optimization [73.13843039509386]
本稿では,攻撃と防御の相互作用をモデル化するゲーム理論フレームワークCyGATEを提案する。
CyGATEはサイバー・キル・チェーン(Cyber Kill Chain)の段階にわたって、サイバー紛争を部分的に観察可能なゲーム(POSG)として捉えている。
フレームワークの柔軟なアーキテクチャは、マルチエージェントシナリオの拡張を可能にする。
論文 参考訳(メタデータ) (2025-08-01T09:53:06Z) - TRAP: Targeted Redirecting of Agentic Preferences [3.6293956720749425]
本稿では,拡散型セマンティックインジェクションを用いてエージェントの意思決定を制御する,生成的敵対的フレームワークであるTRAPを紹介する。
提案手法は, 負のプロンプトに基づく劣化と正のセマンティック最適化を組み合わせ, シームズ意味ネットワークとレイアウト対応空間マスキングによって導かれる。
TRAPはLLaVA-34B、Gemma3、Mistral-3.1など主要なモデルで100%の攻撃成功率を達成した。
論文 参考訳(メタデータ) (2025-05-29T14:57:16Z) - The Silent Saboteur: Imperceptible Adversarial Attacks against Black-Box Retrieval-Augmented Generation Systems [101.68501850486179]
本稿では,RAGシステムに対する敵攻撃について検討し,その脆弱性を同定する。
このタスクは、ターゲット文書を検索する非知覚的な摂動を見つけることを目的としており、もともとはトップ$k$の候補セットから除外されていた。
本稿では、攻撃者とターゲットRAG間の相互作用を追跡する強化学習ベースのフレームワークであるReGENTを提案する。
論文 参考訳(メタデータ) (2025-05-24T08:19:25Z) - Merger-as-a-Stealer: Stealing Targeted PII from Aligned LLMs with Model Merging [49.270050440553575]
この攻撃を実現するための2段階フレームワークである textttMerger-as-a-Stealer を提案する。
まず、攻撃者は悪意のあるモデルを微調整し、PII関連のクエリに応答するよう強制する。
次に、攻撃者は直接PII関連クエリをマージしたモデルに入力し、ターゲットPIIを抽出する。
論文 参考訳(メタデータ) (2025-02-22T05:34:53Z) - Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - AudioFool: Fast, Universal and synchronization-free Cross-Domain Attack
on Speech Recognition [0.9913418444556487]
オーバー・ザ・エア(OTA)モデルと互換性のあるロバスト攻撃に必要な特性について検討する。
任意の特性を持つ攻撃を発生させる手法を設計する。
本手法を標準キーワード分類タスクで評価し,OTAで解析する。
論文 参考訳(メタデータ) (2023-09-20T16:59:22Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。