論文の概要: Secure Metric Learning via Differential Pairwise Privacy
- arxiv url: http://arxiv.org/abs/2003.13413v1
- Date: Mon, 30 Mar 2020 12:47:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 06:40:28.889230
- Title: Secure Metric Learning via Differential Pairwise Privacy
- Title(参考訳): 微分ペアワイズプライバシによる安全なメトリックラーニング
- Authors: Jing Li, Yuangang Pan, Yulei Sui, and Ivor W. Tsang
- Abstract要約: 本稿では,距離メトリック学習において,攻撃者に対してペアワイズ情報を漏洩させる方法について,初めて検討する。
我々は、標準微分プライバシーの定義を一般化し、安全な計量学習のための微分ペアプライバシー(DPP)を開発する。
- 参考スコア(独自算出の注目度): 36.946123614592054
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Distance Metric Learning (DML) has drawn much attention over the last two
decades. A number of previous works have shown that it performs well in
measuring the similarities of individuals given a set of correctly labeled
pairwise data by domain experts. These important and precisely-labeled pairwise
data are often highly sensitive in real world (e.g., patients similarity). This
paper studies, for the first time, how pairwise information can be leaked to
attackers during distance metric learning, and develops differential pairwise
privacy (DPP), generalizing the definition of standard differential privacy,
for secure metric learning. Unlike traditional differential privacy which only
applies to independent samples, thus cannot be used for pairwise data, DPP
successfully deals with this problem by reformulating the worst case.
Specifically, given the pairwise data, we reveal all the involved correlations
among pairs in the constructed undirected graph. DPP is then formalized that
defines what kind of DML algorithm is private to preserve pairwise data. After
that, a case study employing the contrastive loss is exhibited to clarify the
details of implementing a DPP-DML algorithm. Particularly, the sensitivity
reduction technique is proposed to enhance the utility of the output distance
metric. Experiments both on a toy dataset and benchmarks demonstrate that the
proposed scheme achieves pairwise data privacy without compromising the output
performance much (Accuracy declines less than 0.01 throughout all benchmark
datasets when the privacy budget is set at 4).
- Abstract(参考訳): 距離メトリックラーニング(DML)は過去20年間に多くの注目を集めてきた。
以前の多くの研究は、ドメインの専門家によって正しくラベル付けされたペアワイズデータのセットが与えられた個体の類似度をよく測定できることを示してきた。
これらの重要かつ正確にラベル付けされたペアワイズデータは、しばしば現実世界(例えば患者類似性)に非常に敏感である。
本稿では,距離距離学習中に攻撃者にペアワイズ情報を漏洩させる方法を初めて研究し,標準差分プライバシの定義を一般化したディファレンシャルペアワイズプライバシ(dpp)を開発し,安全なメトリック学習を実現する。
独立したサンプルにのみ適用される従来の差分プライバシーとは異なり、DPPは最悪のケースを修正してこの問題に対処することに成功している。
具体的には、ペアワイズデータから、構築された非方向グラフ内のペア間のすべての関連関係を明らかにする。
DPPは形式化され、ペアデータを保存するためにどの種類のDMLアルゴリズムがプライベートであるかを定義する。
その後, DPP-DMLアルゴリズムの実装の詳細を明らかにするために, コントラスト損失を用いたケーススタディを示す。
特に,出力距離測定の有用性を高めるために感度低減手法を提案する。
おもちゃのデータセットとベンチマークの両方の実験では、提案手法が出力性能をあまり損なうことなくペアワイズデータプライバシを実現することを示した(プライバシ予算が4に設定された場合、ベンチマークデータセット全体の精度は0.01未満である)。
関連論文リスト
- Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - Mean Estimation with User-level Privacy under Data Heterogeneity [54.07947274508013]
異なるユーザーは、非常に多くの異なるデータポイントを持っているかもしれない。
すべてのユーザが同じディストリビューションからサンプルを採取していると仮定することはできない。
本研究では,データの分布と量の両方でユーザデータが異なる異質なユーザデータの単純なモデルを提案する。
論文 参考訳(メタデータ) (2023-07-28T23:02:39Z) - Gradients Look Alike: Sensitivity is Often Overestimated in DP-SGD [44.11069254181353]
DP-SGDのリークは、一般的なベンチマークでトレーニングした場合、多くのデータポイントのプライバシが大幅に低下することを示す。
これは、敵がトレーニングデータセットを十分にコントロールしていない場合、プライバシ攻撃が多くのデータポイントに対して必ず失敗することを意味する。
論文 参考訳(メタデータ) (2023-07-01T11:51:56Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning [0.0]
差別化プライバシは、プライバシとユーティリティのトレードオフの定量化を可能にする正式な定義である。
ローカルDP(LDP)モデルでは、ユーザはデータをサーバに送信する前に、ローカルにデータをサニタイズすることができる。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成できると結論付けました。
論文 参考訳(メタデータ) (2022-04-02T12:50:14Z) - Privacy-Preserving Distributed Learning in the Analog Domain [23.67685616088422]
計算サーバからデータをプライベートに保ちながら、データよりも分散学習の問題を考察する。
本稿では,アナログ領域にデータが存在する場合の問題を解くための新しいアルゴリズムを提案する。
本研究では,浮動小数点数を用いてデータを表す場合の計算処理に,提案フレームワークをどのように適用できるかを示す。
論文 参考訳(メタデータ) (2020-07-17T07:56:39Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。