論文の概要: ADePT: Auto-encoder based Differentially Private Text Transformation
- arxiv url: http://arxiv.org/abs/2102.01502v1
- Date: Fri, 29 Jan 2021 23:15:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-04 06:48:20.747355
- Title: ADePT: Auto-encoder based Differentially Private Text Transformation
- Title(参考訳): ADePT: 自動エンコーダに基づく微分プライベートテキスト変換
- Authors: Satyapriya Krishna, Rahul Gupta, Christophe Dupuy
- Abstract要約: 自動エンコーダを用いたユーティリティ保存型差分プライベートテキスト変換アルゴリズムを提案する。
我々のアルゴリズムはテキストを変換し、攻撃に対して堅牢性を提供し、意味的品質の高い変換を生成する。
その結果,提案手法はMIA攻撃に対して有効であり,基礎となる変換プロセスの有用性は低下しないことがわかった。
- 参考スコア(独自算出の注目度): 22.068984615657463
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy is an important concern when building statistical models on data
containing personal information. Differential privacy offers a strong
definition of privacy and can be used to solve several privacy concerns (Dwork
et al., 2014). Multiple solutions have been proposed for the
differentially-private transformation of datasets containing sensitive
information. However, such transformation algorithms offer poor utility in
Natural Language Processing (NLP) tasks due to noise added in the process. In
this paper, we address this issue by providing a utility-preserving
differentially private text transformation algorithm using auto-encoders. Our
algorithm transforms text to offer robustness against attacks and produces
transformations with high semantic quality that perform well on downstream NLP
tasks. We prove the theoretical privacy guarantee of our algorithm and assess
its privacy leakage under Membership Inference Attacks(MIA) (Shokri et al.,
2017) on models trained with transformed data. Our results show that the
proposed model performs better against MIA attacks while offering lower to no
degradation in the utility of the underlying transformation process compared to
existing baselines.
- Abstract(参考訳): プライバシーは、個人情報を含むデータに統計モデルを構築する際に重要な関心事です。
差別化プライバシは、プライバシーの強力な定義を提供し、いくつかのプライバシの懸念を解決するために使用できる(Dwork et al., 2014)。
機密情報を含むデータセットの差分プライベート変換には複数のソリューションが提案されている。
しかし、そのような変換アルゴリズムは、プロセスにノイズが加わるため、自然言語処理(NLP)タスクにおいて有用性が低い。
本論文では,オートエンコーダを用いた実用性保全型プライベートテキスト変換アルゴリズムを提供することにより,この問題に対処する。
提案アルゴリズムはテキストを変換して攻撃に対して頑健性を提供し,下流nlpタスクでうまく機能する高い意味品質の変換を生成する。
本アルゴリズムの理論的プライバシ保証を証明し,変換データを用いたモデル上でのメンバシップ推論攻撃(mia (shokri et al., 2017) によるプライバシリークを評価する。
提案手法は,MIA攻撃に対して,既存のベースラインに比べて基礎となる変換プロセスの有用性を低下させることなく,より優れた性能を発揮することを示す。
関連論文リスト
- Synergizing Privacy and Utility in Data Analytics Through Advanced Information Theorization [2.28438857884398]
本稿では,高次元画像データに適したノイズ注入技術,ロバストな特徴抽出のための変分オートエンコーダ(VAE),構造化データプライバシに最適化された期待最大化(EM)アプローチの3つの高度なアルゴリズムを紹介する。
本手法は,機密属性と変換データ間の相互情報を著しく低減し,プライバシーを向上する。
この研究は、さまざまなデータタイプにまたがってプライバシ保護アルゴリズムをデプロイするための柔軟で効果的な戦略を提供することによって、この分野に貢献する。
論文 参考訳(メタデータ) (2024-04-24T22:58:42Z) - Practical Privacy-Preserving Gaussian Process Regression via Secret
Sharing [23.80837224347696]
本稿では秘密共有(SS)に基づくプライバシー保護型GPR手法を提案する。
コンフュージョン補正(confusion-correction)というアイデアを通じて,新たなSSベースの指数演算を導出し,Cholesky分解に基づくSSベースの行列逆変換アルゴリズムを構築する。
実験結果から,データプライバシ保護の前提として,提案手法が妥当な精度と効率を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-06-26T08:17:51Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Assessing Differentially Private Variational Autoencoders under
Membership Inference [26.480694390462617]
差分プライベートな変分オートエンコーダのプライバシーと精度のトレードオフを定量化し比較する。
変分オートエンコーダのプライバシーと精度のトレードオフを良好に観察することはめったになく,LCPがCDPを上回った事例を特定する。
論文 参考訳(メタデータ) (2022-04-16T21:53:09Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Beyond The Text: Analysis of Privacy Statements through Syntactic and
Semantic Role Labeling [12.74252812104216]
本稿では,プライバシポリシからコンテキスト整合性(Contextual Integrity)のレンズを通じて,プライバシパラメータを抽出する新たなタスクを定式化する。
最近提案された質問応答に基づくソリューションを含む従来のNLPタスクは、プライバシパラメータ抽出の問題に対処するには不十分であることを示す。
論文 参考訳(メタデータ) (2020-10-01T20:48:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。