論文の概要: You Only Anonymize What Is Not Intent-Relevant: Suppressing Non-Intent Privacy Evidence
- arxiv url: http://arxiv.org/abs/2601.04265v1
- Date: Wed, 07 Jan 2026 07:54:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.842331
- Title: You Only Anonymize What Is Not Intent-Relevant: Suppressing Non-Intent Privacy Evidence
- Title(参考訳): 重要でないものだけを匿名化:無関係なプライバシーの証拠を抑える
- Authors: Weihao Shen, Yaxin Xu, Shuang Li, Wei Chen, Yuqin Lan, Meng Yuan, Fuzhen Zhuang,
- Abstract要約: 目的条件付き露光制御を行うユーティリティ保存匿名化手法を提案する。
IntentAnonyは実用的な意図をモデル化し、プライバシ推論エビデンスチェーンを構築する。
その結果、プライバシーとユーティリティのトレードオフ全体の約30%の改善が示されている。
- 参考スコア(独自算出の注目度): 25.1631668864743
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Anonymizing sensitive information in user text is essential for privacy, yet existing methods often apply uniform treatment across attributes, which can conflict with communicative intent and obscure necessary information. This is particularly problematic when personal attributes are integral to expressive or pragmatic goals. The central challenge lies in determining which attributes to protect, and to what extent, while preserving semantic and pragmatic functions. We propose IntentAnony, a utility-preserving anonymization approach that performs intent-conditioned exposure control. IntentAnony models pragmatic intent and constructs privacy inference evidence chains to capture how distributed cues support attribute inference. Conditioned on intent, it assigns each attribute an exposure budget and selectively suppresses non-intent inference pathways while preserving intent-relevant content, semantic structure, affective nuance, and interactional function. We evaluate IntentAnony using privacy inference success rates, text utility metrics, and human evaluation. The results show an approximately 30% improvement in the overall privacy--utility trade-off, with notably stronger usability of anonymized text compared to prior state-of-the-art methods. Our code is available at https://github.com/Nevaeh7/IntentAnony.
- Abstract(参考訳): ユーザテキストにおける機密情報の匿名化はプライバシに不可欠であるが、既存の手法では属性を統一的に扱うことが多く、コミュニケーション意図や不明瞭な必要な情報と矛盾することがある。
これは、個人的属性が表現的または実践的な目標に不可欠な場合、特に問題となる。
中心的な課題は、意味的および実用的機能を保持しながら、どの属性を保護するか、そしてどの程度の程度を決定することである。
目的条件付き露光制御を行うユーティリティ保存匿名化手法であるIntentAnonyを提案する。
IntentAnonyは、実用的な意図をモデル化し、プライバシ推論エビデンスチェーンを構築し、分散キューが属性推論をどのようにサポートするかをキャプチャする。
インテントに条件付きで、各属性に露出予算を割り当て、インテント関連コンテンツ、セマンティック構造、感情的ニュアンス、相互作用機能を保持しながら、非インテント推論経路を選択的に抑制する。
プライバシ推論の成功率、テキストユーティリティメトリクス、人間評価を用いてIntentAnonyを評価する。
その結果、プライバシーとユーティリティのトレードオフ全体の約30%の改善が示され、従来の最先端の方法と比較して、匿名化されたテキストのユーザビリティが顕著に向上した。
私たちのコードはhttps://github.com/Nevaeh7/IntentAnonyで利用可能です。
関連論文リスト
- Zero-Shot Privacy-Aware Text Rewriting via Iterative Tree Search [60.197239728279534]
クラウドベースのサービスにおける大規模言語モデル(LLM)は、重大なプライバシー上の懸念を引き起こしている。
既存のテキスト匿名化と、ルールベースのリアクションやスクラブのような非識別技術は、プライバシー保護とテキストの自然性と実用性のバランスをとるのに苦労することが多い。
我々は,一貫性,妥当性,自然性を保ちながら,秘密情報を体系的に難読化・削除するゼロショット木探索型反復文書き換えアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-09-25T07:23:52Z) - VoxGuard: Evaluating User and Attribute Privacy in Speech via Membership Inference Attacks [51.68795949691009]
差分プライバシとメンバシップ推論に基づくフレームワークであるVoxGuardを紹介した。
属性については, 匿名化後も, 性別やアクセントをほぼ完全精度で再現できることが示唆された。
以上の結果から,EERはリークを著しく過小評価し,低FPR評価の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-09-22T20:57:48Z) - Token-Level Privacy in Large Language Models [7.4143291213663955]
本稿では,文脈情報と意味情報を統合するトークンレベルの新しいプライバシ保護機構であるdchi-stencilを紹介する。
意味的ニュアンスと文脈的ニュアンスの両方を取り入れることで、dchi-stencilはプライバシとユーティリティの堅牢なバランスを実現する。
この研究は、現代の高リスクアプリケーションにおけるプライバシ保護NLPの新しい標準を設定するためのdchi-stencilの可能性を強調している。
論文 参考訳(メタデータ) (2025-03-05T16:27:25Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - IDT: Dual-Task Adversarial Attacks for Privacy Protection [8.312362092693377]
プライバシを保護するには、センシティブな属性を検出できないモデル内の表現を使用する必要がある。
補助的および解釈可能なモデルによる予測を分析し,どのトークンが変更に重要かを識別する手法であるIDTを提案する。
我々は、異なるタスクに適したNLPのための異なるデータセットを評価する。
論文 参考訳(メタデータ) (2024-06-28T04:14:35Z) - Selective, Interpretable, and Motion Consistent Privacy Attribute Obfuscation for Action Recognition [18.93148005536135]
既存のアプローチは、難読化(obfuscation)によって引き起こされる問題や、解釈可能性の欠如に悩まされることが多い。
人間の選択したプライバシーテンプレートは,属性を選択的に隠蔽し,時間的一貫性を誘導する難読化方式である。
論文 参考訳(メタデータ) (2024-03-19T13:17:26Z) - GANonymization: A GAN-based Face Anonymization Framework for Preserving
Emotional Expressions [43.017036538109274]
GANonymizationは、表情保存能力を持つ新しい顔匿名化フレームワークである。
提案手法は, 顔の高レベル表現をベースとして, GAN(Generative Adversarial Network)に基づく匿名化バージョンに合成する。
論文 参考訳(メタデータ) (2023-05-03T14:22:48Z) - Human intuition as a defense against attribute inference [4.916067949075847]
属性推論は、プライバシーに対する大きな脅威となっている。
この脅威に対処する1つの方法は、属性推論からプライベート情報を隠蔽するために、公開データを戦略的に修正することである。
我々は、このタスクを実行する人々の能力を評価し、この目的のために設計されたアルゴリズムと比較する。
論文 参考訳(メタデータ) (2023-04-24T06:54:17Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Semantics-Preserved Distortion for Personal Privacy Protection in Information Management [65.08939490413037]
本稿では,意味的整合性を維持しつつテキストを歪ませる言語学的アプローチを提案する。
本稿では, 意味保存歪みの枠組みとして, 生成的アプローチと置換的アプローチの2つを提示する。
また、特定の医療情報管理シナリオにおけるプライバシ保護についても検討し、機密データの記憶を効果的に制限していることを示す。
論文 参考訳(メタデータ) (2022-01-04T04:01:05Z) - Protecting Anonymous Speech: A Generative Adversarial Network
Methodology for Removing Stylistic Indicators in Text [2.9005223064604078]
我々は,生成的敵ネットワークの構築によるオーサリングの匿名化への新たなアプローチを開発する。
完全自動方式は,コンテンツ保存や流布の点で他の手法と同等の結果が得られる。
我々のアプローチは、オープンセットの文脈に順応し、これまで遭遇したことのない著者の文章を匿名化することができる。
論文 参考訳(メタデータ) (2021-10-18T17:45:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。