論文の概要: Look Twice before You Leap: A Rational Agent Framework for Localized Adversarial Anonymization
- arxiv url: http://arxiv.org/abs/2512.06713v1
- Date: Sun, 07 Dec 2025 08:03:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.484504
- Title: Look Twice before You Leap: A Rational Agent Framework for Localized Adversarial Anonymization
- Title(参考訳): Look Twice before You Leap: A Rational Agent Framework for Localized Adversarial Anonymization (英語)
- Authors: Donghang Duan, Xu Zheng,
- Abstract要約: 我々はRLAA(Ralional Localized Adversarial Anonymization)を提案する。
RLAAは、Attacker-Arbitrator-Anonymizerアーキテクチャを特徴とする、完全にローカライズされたトレーニング不要のフレームワークである。
私たちのコードとデータセットは受け入れ次第リリースされます。
- 参考スコア(独自算出の注目度): 5.308328605042682
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current LLM-based text anonymization frameworks usually rely on remote API services from powerful LLMs, which creates an inherent "privacy paradox": users must somehow disclose data to untrusted third parties for superior privacy preservation. Moreover, directly migrating these frameworks to local small-scale models (LSMs) offers a suboptimal solution with catastrophic collapse in utility based on our core findings. Our work argues that this failure stems not merely from the capability deficits of LSMs, but from the inherent irrationality of the greedy adversarial strategies employed by current state-of-the-art (SoTA) methods. We model the anonymization process as a trade-off between Marginal Privacy Gain (MPG) and Marginal Utility Cost (MUC), and demonstrate that greedy strategies inevitably drift into an irrational state. To address this, we propose Rational Localized Adversarial Anonymization (RLAA), a fully localized and training-free framework featuring an Attacker-Arbitrator-Anonymizer (A-A-A) architecture. RLAA introduces an arbitrator that acts as a rationality gatekeeper, validating the attacker's inference to filter out feedback providing negligible benefits on privacy preservation. This mechanism enforces a rational early-stopping criterion, and systematically prevents utility collapse. Extensive experiments on different datasets demonstrate that RLAA achieves the best privacy-utility trade-off, and in some cases even outperforms SoTA on the Pareto principle. Our code and datasets will be released upon acceptance.
- Abstract(参考訳): 現在のLLMベースのテキスト匿名化フレームワークは、通常、強力なLLMのリモートAPIサービスに依存しており、固有の"プライバシパラドックス"を生み出している。
さらに,これらのフレームワークを局所的小規模モデル (LSM) へ直接移行させることにより,我々の中核的な発見に基づいて,実用上の破滅的な崩壊を伴う準最適解を提供する。
我々の研究は、この失敗はLSMの能力不足だけでなく、現在のSoTA(State-of-the-art)手法が採用している強欲的敵戦略の本質的な非合理性にも起因していると論じている。
我々は、匿名化プロセスを、MPG(Marginal Privacy Gain)とMUC(Marginal Utility Cost)のトレードオフとしてモデル化し、必然的に不合理な状態に漂着することを実証する。
そこで本研究では,A-A-Aアーキテクチャを特徴とするRLAA(Rational Localized Adversarial Anonymization)を提案する。
RLAAは、合理的ゲートキーパーとして機能する仲裁器を導入し、攻撃者の推論を検証して、プライバシ保護に無視できる利益をもたらすフィードバックをフィルタリングする。
このメカニズムは合理的な早期停止基準を強制し、実用上の崩壊を体系的に防止する。
異なるデータセットに対する大規模な実験は、RAAが最高のプライバシーとユーティリティのトレードオフを達成することを示し、場合によってはPareto原則でSoTAよりも優れています。
私たちのコードとデータセットは受け入れ次第リリースされます。
関連論文リスト
- Fine-Grained Privacy Extraction from Retrieval-Augmented Generation Systems via Knowledge Asymmetry Exploitation [15.985529058573912]
Retrieval-augmented Generation (RAG) システムは、外部知識ベースを統合することにより、大規模言語モデル(LLM)を強化する。
RAGシステムに対する既存のプライバシ攻撃は、データ漏洩を引き起こす可能性があるが、多くの場合、混合応答内で知識ベース由来の文を正確に分離することができない。
本稿では,RAGと標準LLMの知識非対称性を利用したブラックボックス攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-31T03:50:16Z) - Safeguarding Privacy of Retrieval Data against Membership Inference Attacks: Is This Query Too Close to Home? [14.147748220718784]
RAGシステム用に設計された新しい類似性に基づくMIA検出フレームワークを提案する。
単純な検出・隠蔽戦略は攻撃者を難読化し、データユーティリティを維持でき、MIAに対してシステムに依存しないことを示す。
論文 参考訳(メタデータ) (2025-05-28T07:35:07Z) - Cannot See the Forest for the Trees: Invoking Heuristics and Biases to Elicit Irrational Choices of LLMs [83.11815479874447]
本研究では,人間の認知における認知的分解と偏見に触発された新しいジェイルブレイク攻撃フレームワークを提案する。
我々は、悪意のあるプロンプトの複雑さと関連バイアスを減らし、認知的分解を用いて、プロンプトを再編成する。
また、従来の二分的成功または失敗のパラダイムを超越したランキングベースの有害度評価指標も導入する。
論文 参考訳(メタデータ) (2025-05-03T05:28:11Z) - Revisiting Locally Differentially Private Protocols: Towards Better Trade-offs in Privacy, Utility, and Attack Resistance [4.5282933786221395]
ローカル微分プライバシー(LDP)は、特にデータを収集するサーバが信頼できない設定で、強力なプライバシ保護を提供する。
本稿では, LDPプロトコルを改良するための汎用多目的最適化フレームワークを提案する。
我々のフレームワークは、調整可能なプライバシ・ユーティリティ・トレードオフによるLPP機構のモジュール化とコンテキスト対応のデプロイを可能にする。
論文 参考訳(メタデータ) (2025-03-03T12:41:01Z) - Bayes-Nash Generative Privacy Against Membership Inference Attacks [24.330984323956173]
本稿では, プライバシ保護をゲーム理論でモデル化する枠組みを, ディフェンダーとアタッカーのベイズゲームとして提案する。
戦略的複雑さに対処するため、私たちは、プライベートデータセットを公開表現にマッピングするニューラルネットワークジェネレータとして、ディフェンダーの混合戦略を表現します。
当社のアプローチは,より強力な攻撃を発生させ,より優れたプライバシ・ユーティリティ・トレードオフを実現することによって,最先端の手法を著しく上回ります。
論文 参考訳(メタデータ) (2024-10-09T20:29:04Z) - Jailbreaking as a Reward Misspecification Problem [80.52431374743998]
本稿では,この脆弱性をアライメントプロセス中に不特定性に対処する新たな視点を提案する。
本稿では,報酬の相違の程度を定量化し,その有効性を実証する指標ReGapを紹介する。
ReMissは、報酬ミスの空間で敵のプロンプトを生成する自動レッドチームリングシステムである。
論文 参考訳(メタデータ) (2024-06-20T15:12:27Z) - From Mean to Extreme: Formal Differential Privacy Bounds on the Success of Real-World Data Reconstruction Attacks [54.25638567385662]
機械学習における微分プライバシーは、しばしばメンバーシップ推論に対する保証として解釈される。
DP予算を定量的な保護に翻訳することで、データ再構築の脅威を悪化させることは、依然として困難な課題である。
本稿では、実証された"ゼロスクラッチ"攻撃のメカニズムに合わせた、最初の公式なプライバシー境界を導出することで、臨界ギャップを埋める。
論文 参考訳(メタデータ) (2024-02-20T09:52:30Z) - The Inadequacy of Similarity-based Privacy Metrics: Privacy Attacks against "Truly Anonymous" Synthetic Datasets [12.730435519914415]
実世界の合成データデプロイメントで使用されるプライバシメトリクスを調べ、その信頼性をいくつかの点で実証する。
ReconSynは、メトリクスによってプライベートと見なされるが、個々のレコードに固有の情報をリークする複数の合成データセットを生成するリコンストラクション攻撃である。
ReconSynは列車データから78-100%のアウトレーヤを復元し、ブラックボックスアクセスのみを1つの適合した生成モデルとプライバシメトリクスに含める。
論文 参考訳(メタデータ) (2023-12-08T15:42:28Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。