論文の概要: PASS: Private Attributes Protection with Stochastic Data Substitution
- arxiv url: http://arxiv.org/abs/2506.07308v1
- Date: Sun, 08 Jun 2025 22:48:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.757813
- Title: PASS: Private Attributes Protection with Stochastic Data Substitution
- Title(参考訳): PASS: 確率データ置換による個人属性保護
- Authors: Yizhuo Chen, Chun-Fu, Chen, Hsiang Hsu, Shaohan Hu, Tarek Abdelzaher,
- Abstract要約: 下流タスクのためのデータユーティリティを維持しながら、データからデータを取り除き、プライベート属性を保護するための様々な研究が提案されている。
PASSは、新しい損失関数で訓練された特定の確率に応じて、元のサンプルを別のサンプルに置換するように設計されている。
顔画像、人間の活動感覚信号、音声記録データセットなど、さまざまなモダリティのデータセットに対するPASSの包括的評価は、PASSの有効性と一般化性を裏付けるものである。
- 参考スコア(独自算出の注目度): 46.38957234350463
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing Machine Learning (ML) services require extensive collections of user data, which may inadvertently include people's private information irrelevant to the services. Various studies have been proposed to protect private attributes by removing them from the data while maintaining the utilities of the data for downstream tasks. Nevertheless, as we theoretically and empirically show in the paper, these methods reveal severe vulnerability because of a common weakness rooted in their adversarial training based strategies. To overcome this limitation, we propose a novel approach, PASS, designed to stochastically substitute the original sample with another one according to certain probabilities, which is trained with a novel loss function soundly derived from information-theoretic objective defined for utility-preserving private attributes protection. The comprehensive evaluation of PASS on various datasets of different modalities, including facial images, human activity sensory signals, and voice recording datasets, substantiates PASS's effectiveness and generalizability.
- Abstract(参考訳): 成長する機械学習(ML)サービスには広範なユーザデータの収集が必要であり、サービスに関係なく人々の個人情報を不注意に含める可能性がある。
下流タスクのためのデータユーティリティを維持しながら、データからデータを取り除き、プライベート属性を保護するための様々な研究が提案されている。
それにもかかわらず、論文で理論的、実証的に示すように、これらの手法は、敵の訓練に基づく戦略に根ざした共通の弱点のため、深刻な脆弱性を明らかにする。
この制限を克服するため,実用性保護のために定義された情報理論的目的から学習した新たな損失関数を用いて,特定の確率に応じて,元のサンプルを確率的に他のサンプルに置換する新しい手法PASSを提案する。
顔画像、人間の活動感覚信号、音声記録データセットなど、さまざまなモダリティのデータセットに対するPASSの包括的評価は、PASSの有効性と一般化性を裏付けるものである。
関連論文リスト
- A False Sense of Privacy: Evaluating Textual Data Sanitization Beyond Surface-level Privacy Leakage [77.83757117924995]
我々は、データリリース時の個人のプライバシーリスクを定量化するために、再識別攻撃を評価する新しいフレームワークを提案する。
本手法は, 衛生データから年齢や物質使用履歴などのセンシティブな属性を推測するために, 一見無害な補助情報を利用できることを示す。
論文 参考訳(メタデータ) (2025-04-28T01:16:27Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - MaSS: Multi-attribute Selective Suppression for Utility-preserving Data Transformation from an Information-theoretic Perspective [10.009178591853058]
本稿では,このユーティリティ保護プライバシ保護問題に対する情報理論の形式的定義を提案する。
我々は、ターゲットデータセットからセンシティブな属性を抑えることができるデータ駆動学習可能なデータ変換フレームワークを設計する。
その結果,様々な構成下での手法の有効性と一般化性を示した。
論文 参考訳(メタデータ) (2024-05-23T18:35:46Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Towards a Data Privacy-Predictive Performance Trade-off [2.580765958706854]
分類タスクにおけるデータプライバシと予測性能のトレードオフの存在を評価する。
従来の文献とは異なり、プライバシーのレベルが高ければ高いほど、予測性能が向上することを確認した。
論文 参考訳(メタデータ) (2022-01-13T21:48:51Z) - Semantics-Preserved Distortion for Personal Privacy Protection in Information Management [65.08939490413037]
本稿では,意味的整合性を維持しつつテキストを歪ませる言語学的アプローチを提案する。
本稿では, 意味保存歪みの枠組みとして, 生成的アプローチと置換的アプローチの2つを提示する。
また、特定の医療情報管理シナリオにおけるプライバシ保護についても検討し、機密データの記憶を効果的に制限していることを示す。
論文 参考訳(メタデータ) (2022-01-04T04:01:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。