論文の概要: DP-MGTD: Privacy-Preserving Machine-Generated Text Detection via Adaptive Differentially Private Entity Sanitization
- arxiv url: http://arxiv.org/abs/2601.04641v1
- Date: Thu, 08 Jan 2026 06:33:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.067043
- Title: DP-MGTD: Privacy-Preserving Machine-Generated Text Detection via Adaptive Differentially Private Entity Sanitization
- Title(参考訳): DP-MGTD:Adaptive Differentially Private Entity Sanitizationによるプライバシ保護マシン生成テキスト検出
- Authors: Lionel Z. Wang, Yusheng Zhao, Jiabin Luo, Xinfeng Li, Lixu Wang, Yinan Peng, Haoyang Li, XiaoFeng Wang, Wei Dong,
- Abstract要約: 本稿では,Adaptive Differentially Private Entity Sanitizationアルゴリズムを組み込んだフレームワークを提案する。
提案手法は,検出精度がほぼ良好であり,非プライベートベースラインを著しく上回っている。
- 参考スコア(独自算出の注目度): 26.29089564225218
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The deployment of Machine-Generated Text (MGT) detection systems necessitates processing sensitive user data, creating a fundamental conflict between authorship verification and privacy preservation. Standard anonymization techniques often disrupt linguistic fluency, while rigorous Differential Privacy (DP) mechanisms typically degrade the statistical signals required for accurate detection. To resolve this dilemma, we propose \textbf{DP-MGTD}, a framework incorporating an Adaptive Differentially Private Entity Sanitization algorithm. Our approach utilizes a two-stage mechanism that performs noisy frequency estimation and dynamically calibrates privacy budgets, applying Laplace and Exponential mechanisms to numerical and textual entities respectively. Crucially, we identify a counter-intuitive phenomenon where the application of DP noise amplifies the distinguishability between human and machine text by exposing distinct sensitivity patterns to perturbation. Extensive experiments on the MGTBench-2.0 dataset show that our method achieves near-perfect detection accuracy, significantly outperforming non-private baselines while satisfying strict privacy guarantees.
- Abstract(参考訳): MGT(Machine-Generated Text)検出システムのデプロイは、機密性の高いユーザデータの処理を必要とするため、オーサシップ検証とプライバシ保護の根本的な対立が生じる。
標準匿名化技術は言語流布を乱すことが多いが、厳密な差分プライバシー(DP)機構は通常、正確な検出に必要な統計的信号を劣化させる。
このジレンマを解決するために,Adaptive Differentially Private Entity Sanitizationアルゴリズムを組み込んだフレームワークである‘textbf{DP-MGTD} を提案する。
提案手法では,ノイズ周波数推定と動的キャリブレーションを行う2段階の機構を用いて,Laplace と Exponential の機構をそれぞれ数値的およびテキスト的エンティティに適用する。
重要なことは、DPノイズの応用が人間と機械のテキストの識別性を増幅する反直感的現象を、摂動に対して異なる感度パターンを明らかにすることによって特定する。
MGTBench-2.0データセットの大規模な実験により,厳密なプライバシ保証を満足しつつ,非プライベートベースラインを著しく上回るほぼ完全な検出精度が得られた。
関連論文リスト
- Verifiable Exponential Mechanism for Median Estimation [4.083860866484599]
本稿では,zk-SNARKを用いた指数関数機構の最初の検証実装を提案する。
具体的応用として、最初の検証可能な微分プライベート(DP)中央値推定法を示す。
論文 参考訳(メタデータ) (2025-05-22T05:31:22Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Adaptive Differentially Quantized Subspace Perturbation (ADQSP): A Unified Framework for Privacy-Preserving Distributed Average Consensus [6.364764301218972]
本稿では適応微分量子化部分空間(ADQSP)という一般手法を提案する。
本研究では,単一の量子化パラメータを変化させることで,提案手法がSMPC型の性能とDP型性能に異なることを示す。
この結果から,従来の分散信号処理ツールを暗号保証に活用する可能性が示唆された。
論文 参考訳(メタデータ) (2023-12-13T07:52:16Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - On the Privacy-Robustness-Utility Trilemma in Distributed Learning [7.778461949427662]
本稿では,少数の対向マシンに対してロバスト性を保証するアルゴリズムによって得られた誤差を,まず厳密に解析する。
私たちの分析は、プライバシ、堅牢性、ユーティリティの基本的なトレードオフを示しています。
論文 参考訳(メタデータ) (2023-02-09T17:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。