論文の概要: A Differentially Private Weighted Empirical Risk Minimization Procedure
and its Application to Outcome Weighted Learning
- arxiv url: http://arxiv.org/abs/2307.13127v1
- Date: Mon, 24 Jul 2023 21:03:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 18:53:10.178082
- Title: A Differentially Private Weighted Empirical Risk Minimization Procedure
and its Application to Outcome Weighted Learning
- Title(参考訳): 差分重み付き経験的リスク最小化手法とその出力重み付き学習への応用
- Authors: Spencer Giddens, Yiwang Zhou, Kevin R. Krull, Tara M. Brinkman, Peter
X.K. Song, Fang Liu
- Abstract要約: 本稿では,DP保証の厳密な理論的証明を背景とした,最初の微分プライベートなwERMアルゴリズムを提案する。
本研究は,DP-wERMによる重み付け学習(OWL)の有効性について,シミュレーションおよび覚醒のためのメラトニン実効臨床試験で評価した。
- 参考スコア(独自算出の注目度): 5.025486694392673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is commonplace to use data containing personal information to build
predictive models in the framework of empirical risk minimization (ERM). While
these models can be highly accurate in prediction, results obtained from these
models with the use of sensitive data may be susceptible to privacy attacks.
Differential privacy (DP) is an appealing framework for addressing such data
privacy issues by providing mathematically provable bounds on the privacy loss
incurred when releasing information from sensitive data. Previous work has
primarily concentrated on applying DP to unweighted ERM. We consider an
important generalization to weighted ERM (wERM). In wERM, each individual's
contribution to the objective function can be assigned varying weights. In this
context, we propose the first differentially private wERM algorithm, backed by
a rigorous theoretical proof of its DP guarantees under mild regularity
conditions. Extending the existing DP-ERM procedures to wERM paves a path to
deriving privacy-preserving learning methods for individualized treatment
rules, including the popular outcome weighted learning (OWL). We evaluate the
performance of the DP-wERM application to OWL in a simulation study and in a
real clinical trial of melatonin for sleep health. All empirical results
demonstrate the viability of training OWL models via wERM with DP guarantees
while maintaining sufficiently useful model performance. Therefore, we
recommend practitioners consider implementing the proposed privacy-preserving
OWL procedure in real-world scenarios involving sensitive data.
- Abstract(参考訳): 個人情報を含むデータを用いて、経験的リスク最小化(ERM)の枠組みで予測モデルを構築することが一般的である。
これらのモデルは予測には非常に正確であるが、機密データを用いて得られた結果は、プライバシ攻撃の影響を受けやすい。
differential privacy (dp)は、機密データからの情報を公開する際に発生するプライバシー損失を数学的に証明可能な境界を提供することで、このようなデータプライバシー問題に対処するための魅力的なフレームワークである。
これまでの作業は主に、未加重ERMにDPを適用することに集中してきた。
重み付きERM (wERM) への重要な一般化を考える。
wERMでは、各個人の目的関数への貢献を様々な重みに割り当てることができる。
そこで本研究では,DP保証の厳密な理論的証明を背景とした,最初の微分プライベートなwERMアルゴリズムを提案する。
既存のDP-ERM手順をwERMに拡張することは、一般的な結果重み付き学習(OWL)を含む個別化処理ルールのためのプライバシー保護学習手法を導出する道を開く。
本研究では,DP-wERMのOWLに対する効果をシミュレーション研究およびメラトニンの睡眠時健康に対する実際の臨床試験で評価した。
実験結果はすべて、十分有用なモデル性能を維持しつつ、DP保証付きwERMによるOWLモデルのトレーニングが可能であることを示す。
そこで,提案するプライバシー保存型owlプロシージャの実装を,センシティブなデータを含む実世界シナリオで検討することを推奨する。
関連論文リスト
- LLM-based Privacy Data Augmentation Guided by Knowledge Distillation
with a Distribution Tutor for Medical Text Classification [67.92145284679623]
ノイズの多いプライベートディストリビューションをモデル化し,プライバシコストの低いサンプル生成を制御するDPベースのチュータを提案する。
理論的には、モデルのプライバシ保護を分析し、モデルを実証的に検証する。
論文 参考訳(メタデータ) (2024-02-26T11:52:55Z) - Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - MedDiffusion: Boosting Health Risk Prediction via Diffusion-based Data
Augmentation [58.93221876843639]
本稿では,MedDiffusion という,エンドツーエンドの拡散に基づくリスク予測モデルを提案する。
トレーニング中に合成患者データを作成し、サンプルスペースを拡大することで、リスク予測性能を向上させる。
ステップワイズ・アテンション・メカニズムを用いて患者の来訪者間の隠れた関係を識別し、高品質なデータを生成する上で最も重要な情報をモデルが自動的に保持することを可能にする。
論文 参考訳(メタデータ) (2023-10-04T01:36:30Z) - PRISM: Leveraging Prototype Patient Representations with
Feature-Missing-Aware Calibration for EHR Data Sparsity Mitigation [7.873181587802631]
PRISMは、類似した患者のプロトタイプ表現を通じて間接的にデータを伝達する新しい計算法である。
PRISMはさらに機能信頼モジュールで革新し、欠落したデータから各機能の信頼性を評価する。
MIMIC-IIIおよびMIMIC-IVデータセットを用いた実験は、PRISMが院内死亡率と30日間の読解タスクを予測する上で優れた性能を示した。
論文 参考訳(メタデータ) (2023-09-08T07:01:38Z) - Differential Privacy for Adaptive Weight Aggregation in Federated Tumor
Segmentation [0.16746114653388383]
Federated Learning(FL)は、個々のクライアントデータのプライバシを尊重しながら、公平なグローバルモデルを作成することによって、プライバシを保護する分散機械学習アプローチである。
医用画像セグメンテーションにおける差分プライバシー(DP)統合ディープラーニングフレームワークを提案する。
我々は, 類似度重み付け法(SimAgg)を, 脳腫瘍セグメント化のための差分プライベート類似度重み付けアルゴリズムDP-SimAggアルゴリズムに拡張する。
論文 参考訳(メタデータ) (2023-08-01T21:59:22Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI
models in medical imaging [49.588766426499184]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Differentially Private Estimation of Heterogeneous Causal Effects [9.355532300027727]
本稿では,条件付き平均治療効果(CATE)を差分プライバシー保証で推定するための一般的なメタアルゴリズムを提案する。
我々のメタアルゴリズムは、SラーナーやDRやRラーナーのようなより複雑な多段推定器のような単純な単段CATE推定器で動作する。
論文 参考訳(メタデータ) (2022-02-22T17:21:18Z) - DP-UTIL: Comprehensive Utility Analysis of Differential Privacy in
Machine Learning [3.822543555265593]
差別化プライバシ(DP)は、プライバシー漏洩を理由とする厳格な形式主義として浮上している。
機械学習(ML)では、DPはトレーニング例の限定/開示に使用されている。
ディープニューラルネットワークの場合、勾配の摂動はプライバシリークを低くする。
論文 参考訳(メタデータ) (2021-12-24T08:40:28Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。