論文の概要: Private Algorithms with Private Predictions
- arxiv url: http://arxiv.org/abs/2210.11222v1
- Date: Thu, 20 Oct 2022 12:59:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 13:31:57.787984
- Title: Private Algorithms with Private Predictions
- Title(参考訳): プライベート予測を用いたプライベートアルゴリズム
- Authors: Kareem Amin, Travis Dick, Mikhail Khodak, Sergei Vassilvitskii
- Abstract要約: 本稿では,プライバシ保護手法を設計・解析するための強力な手法として,予測フレームワークを用いたアルゴリズムを提案する。
本研究では,予測品質の自然測度で実効性を拡張できる予測依存差分法を構築した。
結果は、差分プライベートアルゴリズムがノイズ予測を利用し、学習できるようにする方法を示している。
- 参考スコア(独自算出の注目度): 27.58033173923427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When applying differential privacy to sensitive data, a common way of getting
improved performance is to use external information such as other sensitive
data, public data, or human priors. We propose to use the algorithms with
predictions framework -- previously applied largely to improve time complexity
or competitive ratios -- as a powerful way of designing and analyzing
privacy-preserving methods that can take advantage of such external information
to improve utility. For four important tasks -- quantile release, its extension
to multiple quantiles, covariance estimation, and data release -- we construct
prediction-dependent differentially private methods whose utility scales with
natural measures of prediction quality. The analyses enjoy several advantages,
including minimal assumptions about the data, natural ways of adding robustness
to noisy predictions, and novel "meta" algorithms that can learn predictions
from other (potentially sensitive) data. Overall, our results demonstrate how
to enable differentially private algorithms to make use of and learn noisy
predictions, which holds great promise for improving utility while preserving
privacy across a variety of tasks.
- Abstract(参考訳): 機密データに差分プライバシを適用する場合、パフォーマンスを改善する一般的な方法は、他の機密データや公開データ、あるいは人間の先行情報といった外部情報を使用することである。
このような外部情報を活用して実用性を向上させるためのプライバシー保護手法を設計し分析する強力な方法として、予測フレームワーク(以前は時間複雑性や競争率の改善に主に適用されていた)を用いたアルゴリズムを提案する。
定量化、多重量子化への拡張、共分散推定、データリリースという4つの重要なタスクに対して、予測品質の自然な測定値と実用性を備えた予測依存の差分プライベートな方法を構築します。
分析には、データに関する最小限の仮定、ノイズ予測に堅牢性を加える自然な方法、他の(潜在的に敏感な)データから予測を学習できる新しい「メタ」アルゴリズムなど、いくつかの利点がある。
以上の結果から,様々なタスクにまたがってプライバシを保ちながら,実用性の向上を約束するノイズ予測を,微分プライベートアルゴリズムで活用し,学習する方法が示された。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Learning-Augmented Algorithms with Explicit Predictors [67.02156211760415]
アルゴリズム設計の最近の進歩は、過去のデータと現在のデータから得られた機械学習モデルによる予測の活用方法を示している。
この文脈における以前の研究は、予測器が過去のデータに基づいて事前訓練され、ブラックボックスとして使用されるパラダイムに焦点を当てていた。
本研究では,予測器を解き,アルゴリズムの課題の中で生じる学習問題を統合する。
論文 参考訳(メタデータ) (2024-03-12T08:40:21Z) - Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - Privacy Induces Robustness: Information-Computation Gaps and Sparse Mean
Estimation [8.9598796481325]
本稿では, アルゴリズムと計算複雑性の両面において, 異なる統計問題に対する観測結果について検討する。
プライベートスパース平均推定のための情報計算ギャップを確立する。
また、プライバシーによって引き起こされる情報計算のギャップを、いくつかの統計や学習問題に対して証明する。
論文 参考訳(メタデータ) (2022-11-01T20:03:41Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Robustification of Online Graph Exploration Methods [59.50307752165016]
我々は、古典的で有名なオンライングラフ探索問題の学習強化版について研究する。
本稿では,予測をよく知られたNearest Neighbor(NN)アルゴリズムに自然に統合するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-10T10:02:31Z) - Differentially Private Query Release Through Adaptive Projection [19.449593001368193]
我々は,$k$-way マージンのような膨大な統計クエリに対する回答を解放するための新しいアルゴリズムを提案し,実装し,評価する。
我々のアルゴリズムは、単純な摂動を用いて、プライベートデータセット上のクエリに応答するプロジェクションメカニズムの連続緩和を適応的に利用する。
特に,プライバシ予算が小さい場合や,クエリクラスが大きい場合など,既存のアルゴリズムよりも優れていることが判明した。
論文 参考訳(メタデータ) (2021-03-11T12:43:18Z) - Robust and Differentially Private Mean Estimation [40.323756738056616]
異なるプライバシーは、米国国勢調査から商用デバイスで収集されたデータまで、さまざまなアプリケーションで標準要件として浮上しています。
このようなデータベースの数は、複数のソースからのデータからなり、それらすべてが信頼できるわけではない。
これにより、既存のプライベート分析は、腐敗したデータを注入する敵による攻撃に弱い。
論文 参考訳(メタデータ) (2021-02-18T05:02:49Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Differentially Private Simple Linear Regression [2.614403183902121]
差分プライバシーを満たす単純な線形回帰のアルゴリズムについて検討する。
小データセットに対する単純な線形回帰のための微分プライベートアルゴリズムの設計を考察する。
設定に適応するアルゴリズムのスペクトルの性能について検討する。
論文 参考訳(メタデータ) (2020-07-10T04:28:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。