論文の概要: Disrupting Hierarchical Reasoning: Adversarial Protection for Geographic Privacy in Multimodal Reasoning Models
- arxiv url: http://arxiv.org/abs/2512.08503v1
- Date: Tue, 09 Dec 2025 11:35:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.937143
- Title: Disrupting Hierarchical Reasoning: Adversarial Protection for Geographic Privacy in Multimodal Reasoning Models
- Title(参考訳): 階層推論の破壊:マルチモーダル推論モデルにおける地理的プライバシーの敵対的保護
- Authors: Jiaming Zhang, Che Wang, Yang Cao, Longtao Huang, Wei Yang Bryan Lim,
- Abstract要約: マルチモーダル大推論モデル(MLRM)は、個人画像から正確な地理的位置を推定することにより、プライバシー上の重大なリスクを生じさせる。
textbfReasonBreakは,MLRMの階層的推論を,概念を意識した摂動によって妨害する新しい逆転フレームワークである。
我々のアプローチは、地理的推論を効果的に破壊するには、一様雑音よりも概念的階層に整合した摂動が必要であるというキーインサイトに基づいています。
- 参考スコア(独自算出の注目度): 22.434397927165254
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-modal large reasoning models (MLRMs) pose significant privacy risks by inferring precise geographic locations from personal images through hierarchical chain-of-thought reasoning. Existing privacy protection techniques, primarily designed for perception-based models, prove ineffective against MLRMs' sophisticated multi-step reasoning processes that analyze environmental cues. We introduce \textbf{ReasonBreak}, a novel adversarial framework specifically designed to disrupt hierarchical reasoning in MLRMs through concept-aware perturbations. Our approach is founded on the key insight that effective disruption of geographic reasoning requires perturbations aligned with conceptual hierarchies rather than uniform noise. ReasonBreak strategically targets critical conceptual dependencies within reasoning chains, generating perturbations that invalidate specific inference steps and cascade through subsequent reasoning stages. To facilitate this approach, we contribute \textbf{GeoPrivacy-6K}, a comprehensive dataset comprising 6,341 ultra-high-resolution images ($\geq$2K) with hierarchical concept annotations. Extensive evaluation across seven state-of-the-art MLRMs (including GPT-o3, GPT-5, Gemini 2.5 Pro) demonstrates ReasonBreak's superior effectiveness, achieving a 14.4\% improvement in tract-level protection (33.8\% vs 19.4\%) and nearly doubling block-level protection (33.5\% vs 16.8\%). This work establishes a new paradigm for privacy protection against reasoning-based threats.
- Abstract(参考訳): マルチモーダル大推論モデル(MLRM)は、階層的連鎖推論を通じて個人画像から正確な地理的位置を推定することにより、プライバシー上の重大なリスクを生じさせる。
既存のプライバシ保護技術は、主に知覚に基づくモデルのために設計されており、MLRMの複雑なマルチステップ推論プロセスに対して効果がないことを証明している。
本稿では,MLRMにおける階層的推論を,概念を意識した摂動によって妨害することを目的とした,新たな逆説フレームワークである「textbf{ReasonBreak}」を紹介する。
我々のアプローチは、地理的推論を効果的に破壊するには、一様雑音よりも概念的階層に整合した摂動が必要であるというキーインサイトに基づいています。
ReasonBreakは、推論チェーン内の重要な概念的依存関係を戦略的にターゲットとし、その後の推論段階を通じて特定の推論ステップとカスケードを無効にする摂動を生成する。
このアプローチを容易にするために,6,341枚の超高解像度画像($2K)と階層的概念アノテーションを組み合わせた包括的データセットである \textbf{GeoPrivacy-6K} を寄贈する。
最先端の7つのMLRM(GPT-o3、GPT-5、Gemini 2.5 Proを含む)の広範な評価は、レーソンブリークの優れた効果を示し、トラクションレベルの保護(33.8\%対19.4\%)が14.4\%向上し、ブロックレベルの保護がほぼ倍増した(33.5\%対16.8\%)。
この研究は、推論に基づく脅威に対するプライバシー保護の新しいパラダイムを確立する。
関連論文リスト
- One Token Embedding Is Enough to Deadlock Your Large Reasoning Model [91.48868589442837]
我々は, LRMの生成制御フローをハイジャックする資源枯渇手法であるDeadlock Attackを提案する。
提案手法は4つの先進LEMにおいて100%の攻撃成功率を達成する。
論文 参考訳(メタデータ) (2025-10-12T07:42:57Z) - ReasoningGuard: Safeguarding Large Reasoning Models with Inference-time Safety Aha Moments [18.198349215500183]
ReasoningGuardは、タイムリーな安全アハモーメントを注入し、無害な理由づけプロセスを実行します。
弊社のアプローチは、既存の7つの安全ガードを上回り、最先端の安全防衛を達成している。
論文 参考訳(メタデータ) (2025-08-06T08:35:10Z) - Bounded Rationality for LLMs: Satisficing Alignment at Inference-Time [52.230936493691985]
本稿では,2次基準のしきい値に基づく制約を満たしつつ,主目的を最大化し,アライメントの多面性に対処する推論フレームワークSITAlignを提案する。
我々は、満足度に基づく推論アライメントアプローチの準最適境界を導出することで理論的洞察を提供する。
論文 参考訳(メタデータ) (2025-05-29T17:56:05Z) - Turning Logic Against Itself : Probing Model Defenses Through Contrastive Questions [50.40122190627256]
非倫理的反応を引き起こすために、対照的な推論を利用する新しいジェイルブレイク手法であるPOATEを導入する。
PoATEは意味論的に意図に反し、敵のテンプレートと統合し、有害なアウトプットを驚くほど微妙に操る。
これに対応するために、悪意のある意図と理性を検出するためにクエリを分解して、有害な応答を評価し、拒否するIntent-Aware CoTとReverse Thinking CoTを提案する。
論文 参考訳(メタデータ) (2025-01-03T15:40:03Z) - How Breakable Is Privacy: Probing and Resisting Model Inversion Attacks in Collaborative Inference [13.453033795109155]
協調推論は、中間機能をクラウドモデルに伝達することでエッジデバイスの計算効率を向上させる。
モデル逆攻撃(MIA)の難しさを評価するための確立された基準はない。
本稿では、CIにおけるMIAの難易度を評価するための最初の理論的基準を提案し、相互情報、エントロピー、有効情報量などを重要な要因として同定する。
論文 参考訳(メタデータ) (2025-01-01T13:00:01Z) - From Mean to Extreme: Formal Differential Privacy Bounds on the Success of Real-World Data Reconstruction Attacks [54.25638567385662]
機械学習における微分プライバシーは、しばしばメンバーシップ推論に対する保証として解釈される。
DP予算を定量的な保護に翻訳することで、データ再構築の脅威を悪化させることは、依然として困難な課題である。
本稿では、実証された"ゼロスクラッチ"攻撃のメカニズムに合わせた、最初の公式なプライバシー境界を導出することで、臨界ギャップを埋める。
論文 参考訳(メタデータ) (2024-02-20T09:52:30Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。