論文の概要: Representation Learning for High-Dimensional Data Collection under Local
Differential Privacy
- arxiv url: http://arxiv.org/abs/2010.12464v3
- Date: Sat, 14 May 2022 11:38:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 22:00:47.485662
- Title: Representation Learning for High-Dimensional Data Collection under Local
Differential Privacy
- Title(参考訳): 局所微分プライバシーに基づく高次元データ収集のための表現学習
- Authors: Alex Mansbridge, Gregory Barbour, Davide Piras, Michael Murray,
Christopher Frye, Ilya Feige, David Barber
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は、プライバシを保護するための厳格なアプローチを提供する。
既存のLPP機構は低次元データに適用されている。
高次元において、プライバシを誘発するノイズは、データの有用性を大きく損なう。
- 参考スコア(独自算出の注目度): 18.98782927283319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The collection of individuals' data has become commonplace in many
industries. Local differential privacy (LDP) offers a rigorous approach to
preserving privacy whereby the individual privatises their data locally,
allowing only their perturbed datum to leave their possession. LDP thus
provides a provable privacy guarantee to the individual against both
adversaries and database administrators. Existing LDP mechanisms have
successfully been applied to low-dimensional data, but in high dimensions the
privacy-inducing noise largely destroys the utility of the data. In this work,
our contributions are two-fold: first, by adapting state-of-the-art techniques
from representation learning, we introduce a novel approach to learning LDP
mechanisms. These mechanisms add noise to powerful representations on the
low-dimensional manifold underlying the data, thereby overcoming the
prohibitive noise requirements of LDP in high dimensions. Second, we introduce
a novel denoising approach for downstream model learning. The training of
performant machine learning models using collected LDP data is a common goal
for data collectors, and downstream model performance forms a proxy for the LDP
data utility. Our approach significantly outperforms current state-of-the-art
LDP mechanisms.
- Abstract(参考訳): 個人データの収集は多くの業界で一般的になっている。
ローカルディファレンシャルプライバシ(ldp)は、個人がデータをローカルに民営化するプライバシを維持するための厳格なアプローチを提供する。
したがって、LDPは個人に対して、敵とデータベース管理者の両方に対して、証明可能なプライバシー保証を提供する。
既存のLPPメカニズムは低次元データに適用されているが、高次元ではプライバシーを誘発するノイズがデータの有用性を著しく損なう。
まず,表現学習から最先端技術を適用することで,LDPのメカニズムを学習するための新しいアプローチを導入する。
これらのメカニズムは、データの基礎となる低次元多様体上の強力な表現にノイズを加え、高次元におけるLDPの禁止ノイズ要求を克服する。
第二に、下流モデル学習のための新しいDenoisingアプローチを導入する。
収集されたLDPデータを用いた高性能機械学習モデルのトレーニングはデータコレクターの共通の目標であり、下流モデルのパフォーマンスはLDPデータユーティリティーのプロキシとなる。
我々のアプローチは現在の最先端のldpメカニズムを大きく上回っている。
関連論文リスト
- FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - LLM-based Privacy Data Augmentation Guided by Knowledge Distillation
with a Distribution Tutor for Medical Text Classification [67.92145284679623]
ノイズの多いプライベートディストリビューションをモデル化し,プライバシコストの低いサンプル生成を制御するDPベースのチュータを提案する。
理論的には、モデルのプライバシ保護を分析し、モデルを実証的に検証する。
論文 参考訳(メタデータ) (2024-02-26T11:52:55Z) - Local Privacy-preserving Mechanisms and Applications in Machine Learning [0.21268495173320798]
ローカル微分プライバシ(LDP)は、データ収集と処理の段階において、個々のユーザに対して強力なプライバシ保護を提供する。
プライバシ保護メカニズムの主要な応用の1つは、機械学習である。
論文 参考訳(メタデータ) (2024-01-08T22:29:00Z) - Differentially Private Low-Rank Adaptation of Large Language Model Using Federated Learning [32.52811740662061]
本稿では,大規模言語モデル(LLM)に適した新しいフェデレーション学習アルゴリズムDP-LoRAを紹介する。
DP-LoRAは、重み付け更新のノイズを追加し、データプライバシを個別に維持しつつ、協調的なモデルトレーニングを容易にするガウス機構を使用することで、データのプライバシを保存する。
論文 参考訳(メタデータ) (2023-12-29T06:50:38Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning [0.0]
差別化プライバシは、プライバシとユーティリティのトレードオフの定量化を可能にする正式な定義である。
ローカルDP(LDP)モデルでは、ユーザはデータをサーバに送信する前に、ローカルにデータをサニタイズすることができる。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成できると結論付けました。
論文 参考訳(メタデータ) (2022-04-02T12:50:14Z) - LDP-Fed: Federated Learning with Local Differential Privacy [14.723892247530234]
ローカルディファレンシャルプライバシ(LDP)を用いた正式なプライバシ保証を備えた新しいフェデレーション学習システム LDP-Fed を提案する。
既存のLPPプロトコルは、主に単一の数値またはカテゴリ値の収集におけるデータのプライバシを確保するために開発されている。
連合学習モデルでは、各参加者からパラメータの更新を反復的に収集する。
論文 参考訳(メタデータ) (2020-06-05T19:15:13Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。