論文の概要: Semantics-Preserved Distortion for Personal Privacy Protection
- arxiv url: http://arxiv.org/abs/2201.00965v1
- Date: Tue, 4 Jan 2022 04:01:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 13:48:50.052591
- Title: Semantics-Preserved Distortion for Personal Privacy Protection
- Title(参考訳): 個人情報保護のためのセマンティックス保存歪み
- Authors: Letian Peng, Zuchao Li and Hai Zhao
- Abstract要約: クライアントデバイスでは、ユーザによって毎日、個人情報を含む大量のテキストが生成される。
フェデレートラーニング(Federated Learning)では、クライアントデバイスの生の情報から中心モデルをブロックする多くの方法が提案されている。
本稿では,意味を保ちながらテキストを歪ませることで,より言語的にこれを行おうとする。
- 参考スコア(独自算出の注目度): 48.69930912510414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy protection is an important and concerning topic in Federated
Learning, especially for Natural Language Processing. In client devices, a
large number of texts containing personal information are produced by users
every day. As the direct application of information from users is likely to
invade personal privacy, many methods have been proposed in Federated Learning
to block the center model from the raw information in client devices. In this
paper, we try to do this more linguistically via distorting the text while
preserving the semantics. In practice, we leverage a recently proposed metric,
Neighboring Distribution Divergence, to evaluate the semantic preservation
during the distortion. Based on the metric, we propose two frameworks for
semantics-preserved distortion, a generative one and a substitutive one. Due to
the lack of privacy-related tasks in the current Natural Language Processing
field, we conduct experiments on named entity recognition and constituency
parsing. Results from our experiments show the plausibility and efficiency of
our distortion as a method for personal privacy protection.
- Abstract(参考訳): プライバシー保護は、連合学習、特に自然言語処理において重要かつ関連するトピックである。
クライアントデバイスでは、ユーザによって毎日、個人情報を含む大量のテキストが生成される。
ユーザからの情報の直接的適用は個人のプライバシーを侵害する可能性が高いため、フェデレーション学習において、クライアント装置の生情報からセンタモデルをブロックする多くの方法が提案されている。
本稿では,意味を保ちながらテキストを歪ませることで,より言語的にこれを行おうとする。
実際に,最近提案された手法であるNighboring Distribution Divergenceを用いて,歪み時の意味的保存を評価する。
このメトリックに基づいて,セマンティクス保存歪の2つのフレームワーク,生成型と置換型を提案する。
現在の自然言語処理分野におけるプライバシー関連タスクの欠如により、名前付きエンティティ認識と選挙区解析の実験を行っている。
以上の結果から,個人のプライバシー保護手法としての歪みの妥当性と効率性が示された。
関連論文リスト
- Con-ReCall: Detecting Pre-training Data in LLMs via Contrastive Decoding [118.75567341513897]
既存のメソッドは通常、ターゲットテキストを分離して分析するか、非メンバーコンテキストでのみ分析する。
Con-ReCallは、メンバと非メンバのコンテキストによって誘導される非対称な分布シフトを利用する新しいアプローチである。
論文 参考訳(メタデータ) (2024-09-05T09:10:38Z) - Analyzing Inference Privacy Risks Through Gradients in Machine Learning [17.2657358645072]
本稿では,属性,プロパティ,配布,ユーザ開示など幅広い攻撃を対象とするゲームベースの統合フレームワークを提案する。
本結果は,分散学習における推論攻撃に対するプライバシを実現するために,データ集約のみを頼りにすることの有効性を示した。
論文 参考訳(メタデータ) (2024-08-29T21:21:53Z) - MaSS: Multi-attribute Selective Suppression for Utility-preserving Data Transformation from an Information-theoretic Perspective [10.009178591853058]
本稿では,このユーティリティ保護プライバシ保護問題に対する情報理論の形式的定義を提案する。
我々は、ターゲットデータセットからセンシティブな属性を抑えることができるデータ駆動学習可能なデータ変換フレームワークを設計する。
その結果,様々な構成下での手法の有効性と一般化性を示した。
論文 参考訳(メタデータ) (2024-05-23T18:35:46Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - In and Out-of-Domain Text Adversarial Robustness via Label Smoothing [64.66809713499576]
多様なNLPタスクの基本モデルにおいて,ラベルの平滑化戦略によって提供される対角的ロバスト性について検討する。
実験の結果,ラベルのスムース化は,BERTなどの事前学習モデルにおいて,様々な攻撃に対して,逆方向の堅牢性を大幅に向上させることがわかった。
また,予測信頼度とロバスト性の関係を解析し,ラベルの平滑化が敵の例に対する過度な信頼誤差を減少させることを示した。
論文 参考訳(メタデータ) (2022-12-20T14:06:50Z) - The Limits of Word Level Differential Privacy [30.34805746574316]
そこで本稿では, パラフレージング用に微調整されたトランスフォーマーベース言語モデルに基づくテキスト匿名化手法を提案する。
提案手法を徹底的な実験により評価し,提案手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-02T21:53:10Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。