論文の概要: Differentially Private Learners for Heterogeneous Treatment Effects
- arxiv url: http://arxiv.org/abs/2503.03486v1
- Date: Wed, 05 Mar 2025 13:24:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:52:31.766010
- Title: Differentially Private Learners for Heterogeneous Treatment Effects
- Title(参考訳): 不均一治療効果のための個人差分学習者
- Authors: Maresa Schröder, Valentyn Melnychuk, Stefan Feuerriegel,
- Abstract要約: 我々は,Nyman-orthogonal およびdifferentially private である CATE 推定のための新しいフレームワーク DP-CATE を提案する。
我々は、合成および実世界のデータセットを用いて、DP-CATEを様々な実験で実証する。
- 参考スコア(独自算出の注目度): 23.05024957067819
- License:
- Abstract: Patient data is widely used to estimate heterogeneous treatment effects and thus understand the effectiveness and safety of drugs. Yet, patient data includes highly sensitive information that must be kept private. In this work, we aim to estimate the conditional average treatment effect (CATE) from observational data under differential privacy. Specifically, we present DP-CATE, a novel framework for CATE estimation that is Neyman-orthogonal and further ensures differential privacy of the estimates. Our framework is highly general: it applies to any two-stage CATE meta-learner with a Neyman-orthogonal loss function, and any machine learning model can be used for nuisance estimation. We further provide an extension of our DP-CATE, where we employ RKHS regression to release the complete CATE function while ensuring differential privacy. We demonstrate our DP-CATE across various experiments using synthetic and real-world datasets. To the best of our knowledge, we are the first to provide a framework for CATE estimation that is Neyman-orthogonal and differentially private.
- Abstract(参考訳): 患者データは、不均一な治療効果を推定し、薬物の有効性と安全性を理解するために広く利用されている。
しかし、患者データには機密性の高い情報が含まれており、非公開にしておく必要がある。
本研究では,差分プライバシー下での観測データから条件平均処理効果(CATE)を推定することを目的とする。
具体的には,Nyman-orthogonal である CATE 推定のための新しいフレームワーク DP-CATE を提案する。
我々のフレームワークは非常に一般的なもので、Neyman-orthogonal loss関数を持つ2段階のCATEメタラーナに適用でき、どんな機械学習モデルでもニュアンス推定に利用できる。
我々はさらにDP-CATEの拡張を提供し、RKHSレグレッションを用いて完全なCATE関数をリリースし、差分プライバシーを確保します。
我々は、合成および実世界のデータセットを用いて、DP-CATEを様々な実験で実証する。
私たちの知る限りでは、Neyman-orthogonal で微分プライベートな CATE 推定のためのフレームワークを最初に提供します。
関連論文リスト
- Constructing Confidence Intervals for Average Treatment Effects from Multiple Datasets [36.76175308443609]
本稿では、複数の観測データセットからATEを推定し、有効なCIを提供する新しい手法を提案する。
本手法は観測データセットの仮定をほとんど行わず,医学的実践に広く応用できる。
論文 参考訳(メタデータ) (2024-12-16T07:39:46Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Efficient adjustment for complex covariates: Gaining efficiency with
DOPE [56.537164957672715]
共変量によって表現される情報のサブセットを調整可能なフレームワークを提案する。
理論的な結果に基づいて,平均処理効果(ATE)の効率的な評価を目的とした,デバイアスドアウトカム適応確率推定器(DOPE)を提案する。
その結果,DOPE は様々な観測環境において ATE 推定のための効率的かつ堅牢な手法を提供することがわかった。
論文 参考訳(メタデータ) (2024-02-20T13:02:51Z) - Differentially Private Multi-Site Treatment Effect Estimation [28.13660104055298]
ほとんどの患者データは別々の病院でサイロに残っており、データ駆動型医療AIシステムの設計を妨げている。
医療応用における因果推論の重要な課題である平均治療効果(ATE)を推定することを検討する。
本稿では, ATE推定値とその分散を品質指標として報告する, サイトごとの推定アルゴリズムのクラスを通してこの問題に対処する。
論文 参考訳(メタデータ) (2023-10-10T01:21:01Z) - A Differentially Private Weighted Empirical Risk Minimization Procedure and its Application to Outcome Weighted Learning [4.322221694511603]
差分プライバシー(DP)は、データのプライバシー問題に対処するための魅力的なフレームワークである。
DPは、機密データから情報を公開する際に生じるプライバシー損失に数学的に証明可能な境界を提供する。
一般のwERMに対する最初の微分プライベートアルゴリズムを提案し、理論DPを保証する。
論文 参考訳(メタデータ) (2023-07-24T21:03:25Z) - B-Learner: Quasi-Oracle Bounds on Heterogeneous Causal Effects Under
Hidden Confounding [51.74479522965712]
本稿では,B-Learnerと呼ばれるメタラーナーを提案する。
我々は、その推定が有効で、鋭く、効率的であることを証明し、既存の方法よりも一般的な条件下で構成推定器に対して準オーラル特性を持つことを示した。
論文 参考訳(メタデータ) (2023-04-20T18:07:19Z) - Variational Temporal Deconfounder for Individualized Treatment Effect
Estimation from Longitudinal Observational Data [8.347630187110004]
経年的観察データから治療効果を推定するための既存のアプローチは、通常「不整合性」という強い仮定に基づいて構築される。
本稿では, プロキシを用いた縦方向設定における深部変分埋め込みを応用した変分時間デコノミー(VTD)を提案する。
我々は,本手法を人工的および実世界の臨床データの両方で検証し,本手法が他の既存モデルと比較して有意な偏りを隠蔽する場合に有効であることを示した。
論文 参考訳(メタデータ) (2022-07-23T16:43:12Z) - Robust and Agnostic Learning of Conditional Distributional Treatment
Effects [62.44901952244514]
条件平均治療効果(CATE)は、個々の因果効果の最適点予測である。
集約分析では、通常は分布処理効果(DTE)の測定によって対処される。
我々は,多種多様な問題に対して条件付きDTE(CDTE)を学習するための,新しい堅牢でモデルに依存しない手法を提供する。
論文 参考訳(メタデータ) (2022-05-23T17:40:31Z) - Differentially Private Estimation of Heterogeneous Causal Effects [9.355532300027727]
本稿では,条件付き平均治療効果(CATE)を差分プライバシー保証で推定するための一般的なメタアルゴリズムを提案する。
我々のメタアルゴリズムは、SラーナーやDRやRラーナーのようなより複雑な多段推定器のような単純な単段CATE推定器で動作する。
論文 参考訳(メタデータ) (2022-02-22T17:21:18Z) - Identifiable Energy-based Representations: An Application to Estimating
Heterogeneous Causal Effects [83.66276516095665]
条件付き平均治療効果(CATEs)は、多数の個体にまたがる不均一性について理解することができる。
典型的なCATE学習者は、CATEが識別可能であるために、すべての共起変数が測定されていると仮定する。
本稿では,ノイズコントラッシブ損失関数を用いて,変数の低次元表現を学習するエネルギーベースモデルを提案する。
論文 参考訳(メタデータ) (2021-08-06T10:39:49Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。