論文の概要: Optimal Locally Private Nonparametric Classification with Public Data
- arxiv url: http://arxiv.org/abs/2311.11369v3
- Date: Sun, 2 Jun 2024 10:46:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-04 20:21:27.515734
- Title: Optimal Locally Private Nonparametric Classification with Public Data
- Title(参考訳): 公共データを用いた最適局所的非パラメトリック分類
- Authors: Yuheng Ma, Hanfang Yang,
- Abstract要約: 本研究では,非パラメトリック分類に着目して,公共データを利用した非対話型局所微分プライベート(LDP)学習の問題点について検討する。
後方ドリフト仮定の下では, LDP制約による最小収束率を導出する。
そこで本研究では,極小最大収束率を達成できる新しい手法である局所微分プライベート分類木を提案する。
- 参考スコア(独自算出の注目度): 2.631955426232593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we investigate the problem of public data assisted non-interactive Local Differentially Private (LDP) learning with a focus on non-parametric classification. Under the posterior drift assumption, we for the first time derive the mini-max optimal convergence rate with LDP constraint. Then, we present a novel approach, the locally differentially private classification tree, which attains the mini-max optimal convergence rate. Furthermore, we design a data-driven pruning procedure that avoids parameter tuning and provides a fast converging estimator. Comprehensive experiments conducted on synthetic and real data sets show the superior performance of our proposed methods. Both our theoretical and experimental findings demonstrate the effectiveness of public data compared to private data, which leads to practical suggestions for prioritizing non-private data collection.
- Abstract(参考訳): 本研究では,非パラメトリック分類に着目して,公共データを利用した非対話型局所微分プライベート(LDP)学習の問題点を考察する。
後方ドリフト仮定の下では, LDP制約による最小収束率を初めて導出した。
そこで,本研究では,極小最大収束率を達成できる新しい手法である局所微分プライベート分類木を提案する。
さらに,パラメータチューニングを回避し,高速な収束推定器を提供するデータ駆動型プルーニング手法を設計する。
合成および実データを用いた総合的な実験は,提案手法の優れた性能を示す。
理論的および実験的な結果は、プライベートデータと比較して公開データの有効性を示すものであり、非プライベートデータ収集の優先順位付けの実践的提案につながっている。
関連論文リスト
- Locally Private Estimation with Public Features [2.9562742331218725]
本研究では,公共性を考慮した地域差分学習(LDP)について検討した。
半機能LDPでは,非パラメトリック回帰の最小収束速度が著しく低下することを示した。
本研究では,パブリック機能とプライベート機能の両方に含まれる情報を完全に活用する推定器を提案する。
論文 参考訳(メタデータ) (2024-05-22T09:47:54Z) - Differentially Private Optimization with Sparse Gradients [60.853074897282625]
微分プライベート(DP)最適化問題を個人勾配の空間性の下で検討する。
これに基づいて、スパース勾配の凸最適化にほぼ最適な速度で純粋および近似DPアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-04-16T20:01:10Z) - Mean Estimation with User-Level Privacy for Spatio-Temporal IoT Datasets [5.34194012533815]
実世界のデータセット上での低い推定誤差を保証するために,ユーザレベルの差分プライベートアルゴリズムを開発した。
インド都市のITMS(Intelligent Traffic Management System)データを用いて,本アルゴリズムを検証した。
ファストケースデータセットにおける擬似ユーザ生成に基づくアルゴリズムの性能を,ミニマックスアプローチを用いて評価する。
論文 参考訳(メタデータ) (2024-01-29T06:21:29Z) - Partition-based differentially private synthetic data generation [0.5095097384893414]
プライバシ予算が限られていても、エラーを低減し、合成データの品質を向上させる分割ベースのアプローチを提案する。
提案手法を用いて生成した合成データは、品質と有用性の向上を示し、プライベートな合成データ共有に好適な選択である。
論文 参考訳(メタデータ) (2023-10-10T07:23:37Z) - Prediction-Oriented Bayesian Active Learning [51.426960808684655]
予測情報ゲイン(EPIG)は、パラメータではなく予測空間における情報ゲインを測定する。
EPIGは、さまざまなデータセットやモデルにわたるBALDと比較して、予測パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-04-17T10:59:57Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Collaborative causal inference on distributed data [7.293479909193382]
本研究では,データ協調実験(DC-QE)を提案し,対象と共変量の欠如を解消し,推定におけるランダムな誤りやバイアスを低減する。
提案手法では, 個人データから生成した中間表現を局所的データから構築し, プライバシ保存のためにプライベートデータの代わりに中間表現を共有し, 共有中間表現から適合度スコアを推定し, 最終的に, 適合度スコアから治療効果を推定する。
論文 参考訳(メタデータ) (2022-08-16T18:28:56Z) - Debiasing In-Sample Policy Performance for Small-Data, Large-Scale
Optimization [4.554894288663752]
本稿では,データ駆動最適化におけるポリシのアウト・オブ・サンプル性能の新たな推定法を提案する。
クロスバリデーションとは異なり、我々の手法はテストセットのデータを犠牲にするのを避ける。
我々は,小規模・大規模システムにおける推定器の性能を実証する。
論文 参考訳(メタデータ) (2021-07-26T19:00:51Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。