論文の概要: Learning-Augmented Private Algorithms for Multiple Quantile Release
- arxiv url: http://arxiv.org/abs/2210.11222v2
- Date: Mon, 8 May 2023 16:29:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 00:05:11.453183
- Title: Learning-Augmented Private Algorithms for Multiple Quantile Release
- Title(参考訳): 複数の量子リリースのための学習強化プライベートアルゴリズム
- Authors: Mikhail Khodak, Kareem Amin, Travis Dick, Sergei Vassilvitskii
- Abstract要約: 本稿では,プライバシ保護手法を設計・解析するための強力な手法として,学習強化アルゴリズム(あるいは予測付きアルゴリズム)フレームワークを提案する。
予測品質の自然な尺度でそのスケールを保証し、(ほとんど)最先端の予測非依存の保証を回復する。
- 参考スコア(独自算出の注目度): 27.58033173923427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When applying differential privacy to sensitive data, we can often improve
performance using external information such as other sensitive data, public
data, or human priors. We propose to use the learning-augmented algorithms (or
algorithms with predictions) framework -- previously applied largely to improve
time complexity or competitive ratios -- as a powerful way of designing and
analyzing privacy-preserving methods that can take advantage of such external
information to improve utility. This idea is instantiated on the important task
of multiple quantile release, for which we derive error guarantees that scale
with a natural measure of prediction quality while (almost) recovering
state-of-the-art prediction-independent guarantees. Our analysis enjoys several
advantages, including minimal assumptions about the data, a natural way of
adding robustness, and the provision of useful surrogate losses for two novel
``meta" algorithms that learn predictions from other (potentially sensitive)
data. We conclude with experiments on challenging tasks demonstrating that
learning predictions across one or more instances can lead to large error
reductions while preserving privacy.
- Abstract(参考訳): 機密データにディファレンシャルプライバシを適用する場合、他の機密データ、公開データ、人間のプライバシといった外部情報を使用して、パフォーマンスを改善することがよくあります。
従来は時間複雑性や競争比の改善に主に用いられてきた、学習によるアルゴリズム(あるいは予測を伴うアルゴリズム)フレームワークを、そのような外部情報を活用し、有用性を向上させるプライバシ保護方法を設計および分析する強力な方法として利用することを提案する。
このアイデアは、予測品質の自然な尺度でスケールするエラー保証を導出すると同時に、最先端の予測非依存の保証を回復する、多重量子化リリースの重要なタスクに基づいてインスタンス化される。
我々の分析は、データに関する最小限の仮定、ロバスト性を追加する自然な方法、および他の(潜在的に敏感な)データから予測を学習する2つの新しい「メタ」アルゴリズムに対する有用なサロゲート損失の提供など、いくつかの利点を享受している。
結論として,1つ以上のインスタンスにわたる学習予測が,プライバシを維持しながら大きなエラー低減につながることを実証する課題に関する実験を行った。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Learning-Augmented Algorithms with Explicit Predictors [67.02156211760415]
アルゴリズム設計の最近の進歩は、過去のデータと現在のデータから得られた機械学習モデルによる予測の活用方法を示している。
この文脈における以前の研究は、予測器が過去のデータに基づいて事前訓練され、ブラックボックスとして使用されるパラダイムに焦点を当てていた。
本研究では,予測器を解き,アルゴリズムの課題の中で生じる学習問題を統合する。
論文 参考訳(メタデータ) (2024-03-12T08:40:21Z) - Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - Privacy Induces Robustness: Information-Computation Gaps and Sparse Mean
Estimation [8.9598796481325]
本稿では, アルゴリズムと計算複雑性の両面において, 異なる統計問題に対する観測結果について検討する。
プライベートスパース平均推定のための情報計算ギャップを確立する。
また、プライバシーによって引き起こされる情報計算のギャップを、いくつかの統計や学習問題に対して証明する。
論文 参考訳(メタデータ) (2022-11-01T20:03:41Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Robustification of Online Graph Exploration Methods [59.50307752165016]
我々は、古典的で有名なオンライングラフ探索問題の学習強化版について研究する。
本稿では,予測をよく知られたNearest Neighbor(NN)アルゴリズムに自然に統合するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-10T10:02:31Z) - Differentially Private Query Release Through Adaptive Projection [19.449593001368193]
我々は,$k$-way マージンのような膨大な統計クエリに対する回答を解放するための新しいアルゴリズムを提案し,実装し,評価する。
我々のアルゴリズムは、単純な摂動を用いて、プライベートデータセット上のクエリに応答するプロジェクションメカニズムの連続緩和を適応的に利用する。
特に,プライバシ予算が小さい場合や,クエリクラスが大きい場合など,既存のアルゴリズムよりも優れていることが判明した。
論文 参考訳(メタデータ) (2021-03-11T12:43:18Z) - Robust and Differentially Private Mean Estimation [40.323756738056616]
異なるプライバシーは、米国国勢調査から商用デバイスで収集されたデータまで、さまざまなアプリケーションで標準要件として浮上しています。
このようなデータベースの数は、複数のソースからのデータからなり、それらすべてが信頼できるわけではない。
これにより、既存のプライベート分析は、腐敗したデータを注入する敵による攻撃に弱い。
論文 参考訳(メタデータ) (2021-02-18T05:02:49Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Differentially Private Simple Linear Regression [2.614403183902121]
差分プライバシーを満たす単純な線形回帰のアルゴリズムについて検討する。
小データセットに対する単純な線形回帰のための微分プライベートアルゴリズムの設計を考察する。
設定に適応するアルゴリズムのスペクトルの性能について検討する。
論文 参考訳(メタデータ) (2020-07-10T04:28:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。