論文の概要: Chasing Your Long Tails: Differentially Private Prediction in Health
Care Settings
- arxiv url: http://arxiv.org/abs/2010.06667v1
- Date: Tue, 13 Oct 2020 19:56:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 23:22:34.037954
- Title: Chasing Your Long Tails: Differentially Private Prediction in Health
Care Settings
- Title(参考訳): 健康状態の個人差を予測できる「Chasing Your Long Tails」
- Authors: Vinith M. Suriyakumar, Nicolas Papernot, Anna Goldenberg, Marzyeh
Ghassemi
- Abstract要約: 差分プライベート(DP)学習の方法は、プライバシ保証付きモデルを学習するための汎用的なアプローチを提供する。
DP学習の現代的な手法は、情報に過度にユニークなと判断される情報を検閲するメカニズムを通じて、プライバシーを確保する。
我々はDP学習に最先端の手法を用いて,臨床予測タスクにおけるプライバシ保護モデルを訓練する。
- 参考スコア(独自算出の注目度): 34.26542589537452
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models in health care are often deployed in settings where
it is important to protect patient privacy. In such settings, methods for
differentially private (DP) learning provide a general-purpose approach to
learn models with privacy guarantees. Modern methods for DP learning ensure
privacy through mechanisms that censor information judged as too unique. The
resulting privacy-preserving models, therefore, neglect information from the
tails of a data distribution, resulting in a loss of accuracy that can
disproportionately affect small groups. In this paper, we study the effects of
DP learning in health care. We use state-of-the-art methods for DP learning to
train privacy-preserving models in clinical prediction tasks, including x-ray
classification of images and mortality prediction in time series data. We use
these models to perform a comprehensive empirical investigation of the
tradeoffs between privacy, utility, robustness to dataset shift, and fairness.
Our results highlight lesser-known limitations of methods for DP learning in
health care, models that exhibit steep tradeoffs between privacy and utility,
and models whose predictions are disproportionately influenced by large
demographic groups in the training data. We discuss the costs and benefits of
differentially private learning in health care.
- Abstract(参考訳): 医療における機械学習モデルは、患者のプライバシを保護することが重要である設定にデプロイされることが多い。
このような設定では、差分プライベート(DP)学習の手法は、プライバシを保証するモデルを学ぶための汎用的なアプローチを提供する。
DP学習の近代的な手法は、情報にユニークすぎると判断される情報を検閲するメカニズムを通じてプライバシーを確保する。
結果として生じるプライバシ保護モデルは、データ配布の尾部からの情報を無視し、小さなグループに不均等に影響を及ぼすような精度の喪失をもたらす。
本稿では,医療におけるDP学習の効果について検討する。
画像のx線分類や時系列データの死亡率予測など,臨床予測タスクにおけるプライバシ保存モデルのトレーニングにdp学習の最先端手法を用いる。
これらのモデルを使用して、プライバシ、ユーティリティ、データセットシフトに対する堅牢性、公正性のトレードオフに関する包括的な実証的研究を行います。
以上の結果から, 医療におけるDP学習手法の限界, プライバシとユーティリティの急激なトレードオフを示すモデル, トレーニングデータにおける大規模人口集団の影響を受けないモデルが注目された。
医療における差分私的学習のコストとメリットについて論じる。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - LLM-based Privacy Data Augmentation Guided by Knowledge Distillation
with a Distribution Tutor for Medical Text Classification [67.92145284679623]
ノイズの多いプライベートディストリビューションをモデル化し,プライバシコストの低いサンプル生成を制御するDPベースのチュータを提案する。
理論的には、モデルのプライバシ保護を分析し、モデルを実証的に検証する。
論文 参考訳(メタデータ) (2024-02-26T11:52:55Z) - Unlocking Accuracy and Fairness in Differentially Private Image
Classification [43.53494043189235]
差別化プライバシ(DP)は、プライバシ保護トレーニングのための金の標準フレームワークと考えられている。
DPを微調整した事前学習基礎モデルでは,非私的分類器と同様の精度が得られることを示す。
論文 参考訳(メタデータ) (2023-08-21T17:42:33Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Vision Through the Veil: Differential Privacy in Federated Learning for
Medical Image Classification [15.382184404673389]
医療におけるディープラーニングアプリケーションの普及は、さまざまな機関にデータ収集を求める。
プライバシー保護メカニズムは、データが自然に敏感である医療画像解析において最重要である。
本研究は,プライバシ保護技術である差分プライバシを,医用画像分類のための統合学習フレームワークに統合することの必要性に対処する。
論文 参考訳(メタデータ) (2023-06-30T16:48:58Z) - Training Private Models That Know What They Don't Know [40.19666295972155]
いくつかの一般的な選択的予測手法は、差分的にプライベートな環境では効果がないことがわかった。
モデルユーティリティレベルを越えた選択予測性能を分離する新しい評価機構を提案する。
論文 参考訳(メタデータ) (2023-05-28T12:20:07Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - Anonymizing Data for Privacy-Preserving Federated Learning [3.3673553810697827]
我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
論文 参考訳(メタデータ) (2020-02-21T02:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。