論文の概要: Differentially Private Synthetic Control
- arxiv url: http://arxiv.org/abs/2303.14084v1
- Date: Fri, 24 Mar 2023 15:49:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 14:03:39.292218
- Title: Differentially Private Synthetic Control
- Title(参考訳): 微分プライベート合成制御
- Authors: Saeyoung Rho, Rachel Cummings, Vishal Misra
- Abstract要約: 我々は、明示的なエラー境界を持つ微分プライベートな合成制御のための最初のアルゴリズムを提供する。
我々は,アルゴリズムがターゲットユニットの正確な予測を行い,プライバシのコストが小さいことを示す。
- 参考スコア(独自算出の注目度): 13.320917259299652
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic control is a causal inference tool used to estimate the treatment
effects of an intervention by creating synthetic counterfactual data. This
approach combines measurements from other similar observations (i.e., donor
pool ) to predict a counterfactual time series of interest (i.e., target unit)
by analyzing the relationship between the target and the donor pool before the
intervention. As synthetic control tools are increasingly applied to sensitive
or proprietary data, formal privacy protections are often required. In this
work, we provide the first algorithms for differentially private synthetic
control with explicit error bounds. Our approach builds upon tools from
non-private synthetic control and differentially private empirical risk
minimization. We provide upper and lower bounds on the sensitivity of the
synthetic control query and provide explicit error bounds on the accuracy of
our private synthetic control algorithms. We show that our algorithms produce
accurate predictions for the target unit, and that the cost of privacy is
small. Finally, we empirically evaluate the performance of our algorithm, and
show favorable performance in a variety of parameter regimes, as well as
providing guidance to practitioners for hyperparameter tuning.
- Abstract(参考訳): 合成制御(synthetic control)は、合成反事実データを作成することにより介入の治療効果を推定するために用いられる因果推論ツールである。
このアプローチは、他の類似した観測(ドナープール)からの測定を組み合わせて、介入前のターゲットとドナープールの関係を分析することによって、対実的時系列(ターゲットユニット)を予測する。
機密データやプロプライエタリデータに合成制御ツールがますます適用されるにつれて、正式なプライバシ保護が求められることが多い。
本研究では,明示的な誤差境界を持つ微分プライベート合成制御のための最初のアルゴリズムを提案する。
我々のアプローチは、非私的合成制御と微分プライベートな経験的リスク最小化のツールに基づいている。
我々は、合成制御クエリの感度に関する上限と下限を提供し、プライベート合成制御アルゴリズムの精度に関する明示的な誤差境界を提供する。
我々は,アルゴリズムがターゲットユニットの正確な予測を行い,プライバシのコストが小さいことを示す。
最後に,提案アルゴリズムの性能を実証的に評価し,パラメータの多様さに好適な性能を示すとともに,ハイパーパラメータチューニングの実践者へのガイダンスを提供する。
関連論文リスト
- Incentive-Aware Synthetic Control: Accurate Counterfactual Estimation
via Incentivized Exploration [43.59040957749326]
我々は「オーバーラップ」の合成制御法(SCM)においてしばしば見過ごされるが、ユビキタスな仮定に光を当てた。
我々は、通常考慮しない介入を行うために、異なる好みのユニットにインセンティブを与えるフレームワークを提案する。
そこでは、制御だけでなく、すべての介入の下で対実的な結果を生み出すことを目標としています。
論文 参考訳(メタデータ) (2023-12-26T19:25:11Z) - Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Privacy Induces Robustness: Information-Computation Gaps and Sparse Mean
Estimation [8.9598796481325]
本稿では, アルゴリズムと計算複雑性の両面において, 異なる統計問題に対する観測結果について検討する。
プライベートスパース平均推定のための情報計算ギャップを確立する。
また、プライバシーによって引き起こされる情報計算のギャップを、いくつかの統計や学習問題に対して証明する。
論文 参考訳(メタデータ) (2022-11-01T20:03:41Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Brownian Noise Reduction: Maximizing Privacy Subject to Accuracy
Constraints [53.01656650117495]
研究者と実践者の間には、プライバシとユーティリティのトレードオフの扱い方の違いがある。
ブラウン機構は、まず擬ブラウン運動の最終点に対応する高分散のガウス雑音を加えることで機能する。
我々は、古典的AboveThresholdアルゴリズムの一般化であるReduceedAboveThresholdでブラウン機構を補完する。
論文 参考訳(メタデータ) (2022-06-15T01:43:37Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Partial Identification with Noisy Covariates: A Robust Optimization
Approach [94.10051154390237]
観測データセットからの因果推論は、しばしば共変量の測定と調整に依存する。
このロバストな最適化手法により、広範囲な因果調整法を拡張し、部分的同定を行うことができることを示す。
合成および実データセット全体で、このアプローチは既存の手法よりも高いカバレッジ確率でATEバウンダリを提供する。
論文 参考訳(メタデータ) (2022-02-22T04:24:26Z) - An automatic differentiation system for the age of differential privacy [65.35244647521989]
Tritiumは、微分プライベート(DP)機械学習(ML)のための自動微分ベース感度分析フレームワークである
我々は、微分プライベート(DP)機械学習(ML)のための自動微分に基づく感度分析フレームワークTritiumを紹介する。
論文 参考訳(メタデータ) (2021-09-22T08:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。