論文の概要: Differentially Private Simple Linear Regression
- arxiv url: http://arxiv.org/abs/2007.05157v1
- Date: Fri, 10 Jul 2020 04:28:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 21:33:45.378211
- Title: Differentially Private Simple Linear Regression
- Title(参考訳): 差分的単純線形回帰
- Authors: Daniel Alabi, Audra McMillan, Jayshree Sarathy, Adam Smith and Salil
Vadhan
- Abstract要約: 差分プライバシーを満たす単純な線形回帰のアルゴリズムについて検討する。
小データセットに対する単純な線形回帰のための微分プライベートアルゴリズムの設計を考察する。
設定に適応するアルゴリズムのスペクトルの性能について検討する。
- 参考スコア(独自算出の注目度): 2.614403183902121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Economics and social science research often require analyzing datasets of
sensitive personal information at fine granularity, with models fit to small
subsets of the data. Unfortunately, such fine-grained analysis can easily
reveal sensitive individual information. We study algorithms for simple linear
regression that satisfy differential privacy, a constraint which guarantees
that an algorithm's output reveals little about any individual input data
record, even to an attacker with arbitrary side information about the dataset.
We consider the design of differentially private algorithms for simple linear
regression for small datasets, with tens to hundreds of datapoints, which is a
particularly challenging regime for differential privacy. Focusing on a
particular application to small-area analysis in economics research, we study
the performance of a spectrum of algorithms we adapt to the setting. We
identify key factors that affect their performance, showing through a range of
experiments that algorithms based on robust estimators (in particular, the
Theil-Sen estimator) perform well on the smallest datasets, but that other more
standard algorithms do better as the dataset size increases.
- Abstract(参考訳): 経済学と社会科学の研究では、機密性の高い個人情報のデータセットを細かい粒度で分析する必要があることが多い。
残念ながら、このようなきめ細かい分析は、敏感な個人情報を容易に明らかにすることができる。
差分プライバシーを満たす単純な線形回帰のアルゴリズムについて検討し、アルゴリズムの出力が個々の入力データ記録についてほとんど明らかにしないことを保証する制約を、データセットについて任意のサイド情報を持つ攻撃者にも与える。
我々は、数十から数百のデータポイントを持つ小さなデータセットに対する単純な線形回帰のための微分プライベートアルゴリズムの設計について検討する。
経済学研究における小領域分析への特定の応用に焦点を当て,我々が設定に適応するアルゴリズムのスペクトルの性能について検討する。
我々は、ロバストな推定器(特にTheil-Sen推定器)に基づくアルゴリズムが最小のデータセットで良好に機能することを示す実験を通じて、それらのパフォーマンスに影響を与える重要な要素を同定する。
関連論文リスト
- Feature Selection from Differentially Private Correlations [35.187113265093615]
高次元回帰はデータセット内の個々のデータポイントに関する情報をリークすることができる。
相関に基づく順序統計を用いて、データセットから重要な特徴を選択し、それらを民営化する。
提案手法は,多くのデータセット上でのプライベートな特徴選択において,確立されたベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-08-20T13:54:07Z) - Scaling Laws for the Value of Individual Data Points in Machine Learning [55.596413470429475]
個々のデータポイントの値のスケーリング行動を調べることによって、新しい視点を導入する。
スケーリング法則を支持するための学習理論を提供し、それが様々なモデルクラスにまたがっていることを実証的に観察する。
私たちの研究は、個々のデータポイントの値のスケーリング特性を理解し、活用するための第一歩です。
論文 参考訳(メタデータ) (2024-05-30T20:10:24Z) - Differentially Private Synthetic Data with Private Density Estimation [2.209921757303168]
我々は、差分プライバシーの枠組みを採用し、データセット全体を生成するメカニズムを探究する。
我々はBoedihardjoらの研究に基づいて、プライベートな合成データを生成するための新しい最適化ベースのアルゴリズムの基礎を築いた。
論文 参考訳(メタデータ) (2024-05-06T14:06:12Z) - Privacy-Optimized Randomized Response for Sharing Multi-Attribute Data [1.1510009152620668]
マルチ属性データの共有において最強のプライバシを保証するために,プライバシ最適化ランダム化応答を提案する。
また、近似属性機構を構築するための効率的なアルゴリズムを提案する。
提案手法は,既存の手法に比べて,データセット全体のプライバシー保証を大幅に強化する。
論文 参考訳(メタデータ) (2024-02-12T11:34:42Z) - Differentially Private Sliced Inverse Regression: Minimax Optimality and
Algorithm [16.14032140601778]
十分な次元削減の文脈において、プライバシー問題に対処するために設計された最適微分プライベートアルゴリズムを提案する。
我々は、対数係数まで最小限の下位境界を達成できる微分プライベートアルゴリズムを開発した。
自然な拡張として、微分プライベートスパース主成分分析に類似した下界と上界を容易に提供できる。
論文 参考訳(メタデータ) (2024-01-16T06:47:43Z) - On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Learning-Augmented Private Algorithms for Multiple Quantile Release [27.58033173923427]
本稿では,プライバシ保護手法を設計・解析するための強力な手法として,学習強化アルゴリズム(あるいは予測付きアルゴリズム)フレームワークを提案する。
予測品質の自然な尺度でそのスケールを保証し、(ほとんど)最先端の予測非依存の保証を回復する。
論文 参考訳(メタデータ) (2022-10-20T12:59:00Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Selecting the suitable resampling strategy for imbalanced data
classification regarding dataset properties [62.997667081978825]
医学、情報検索、サイバーセキュリティ、ソーシャルメディアなどの多くのアプリケーションドメインでは、分類モデルの導入に使用されるデータセットは、各クラスのインスタンスの不平等な分布を持つことが多い。
この状況は不均衡データ分類と呼ばれ、少数民族の例では予測性能が低い。
オーバーサンプリングとアンダーサンプリングの技術は、各クラスの例の数とバランスをとることでこの問題に対処する、よく知られた戦略である。
論文 参考訳(メタデータ) (2021-12-15T18:56:39Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。