論文の概要: Exploratory Analysis of Federated Learning Methods with Differential
Privacy on MIMIC-III
- arxiv url: http://arxiv.org/abs/2302.04208v1
- Date: Wed, 8 Feb 2023 17:27:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 15:26:26.622717
- Title: Exploratory Analysis of Federated Learning Methods with Differential
Privacy on MIMIC-III
- Title(参考訳): ディファレンシャルプライバシを考慮したフェデレーション学習法の探索的解析-iii
- Authors: Aron N. Horvath, Matteo Berchier, Farhad Nooralahzadeh, Ahmed Allam,
Michael Krauthammer
- Abstract要約: フェデレートされた学習方法は、プライバシに敏感なデータセット上で機械学習モデルをトレーニングする可能性を提供する。
オープンソースMIMIC-IIIデータセット上でのトレーニングモデルにおいて,異なるフェデレーションおよび差分プライバシー手法が与える影響の評価を行う。
- 参考スコア(独自算出の注目度): 0.7349727826230862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Background: Federated learning methods offer the possibility of training
machine learning models on privacy-sensitive data sets, which cannot be easily
shared. Multiple regulations pose strict requirements on the storage and usage
of healthcare data, leading to data being in silos (i.e. locked-in at
healthcare facilities). The application of federated algorithms on these
datasets could accelerate disease diagnostic, drug development, as well as
improve patient care.
Methods: We present an extensive evaluation of the impact of different
federation and differential privacy techniques when training models on the
open-source MIMIC-III dataset. We analyze a set of parameters influencing a
federated model performance, namely data distribution (homogeneous and
heterogeneous), communication strategies (communication rounds vs. local
training epochs), federation strategies (FedAvg vs. FedProx). Furthermore, we
assess and compare two differential privacy (DP) techniques during model
training: a stochastic gradient descent-based differential privacy algorithm
(DP-SGD), and a sparse vector differential privacy technique (DP-SVT).
Results: Our experiments show that extreme data distributions across sites
(imbalance either in the number of patients or the positive label ratios
between sites) lead to a deterioration of model performance when trained using
the FedAvg strategy. This issue is resolved when using FedProx with the use of
appropriate hyperparameter tuning. Furthermore, the results show that both
differential privacy techniques can reach model performances similar to those
of models trained without DP, however at the expense of a large quantifiable
privacy leakage.
Conclusions: We evaluate empirically the benefits of two federation
strategies and propose optimal strategies for the choice of parameters when
using differential privacy techniques.
- Abstract(参考訳): 背景: フェデレートされた学習方法は、プライバシーに敏感なデータセット上で機械学習モデルをトレーニングする可能性を提供する。
複数の規制が医療データの保存と使用に厳しい要件を課しており、データはサイロ(医療施設のロックイン)に置かれている。
これらのデータセットへのフェデレーションアルゴリズムの適用は、疾患の診断、薬物開発を加速し、患者のケアを改善する。
方法: オープンソースのMIMIC-IIIデータセット上でのトレーニングモデルにおいて, 異なるフェデレーションと差分プライバシー技術の影響を広範囲に評価する。
我々は,フェデレーションモデルの性能に影響を及ぼすパラメータ,すなわち,データ分散(均一かつ均一),コミュニケーション戦略(コミュニケーションラウンド対ローカルトレーニングエポック),フェデレーション戦略(FedAvg vs. FedProx)について分析する。
さらに,モデルトレーニング中の差分プライバシ(dp)手法について,確率勾配降下型差分プライバシアルゴリズム(dp-sgd)とスパースベクトル差分プライバシ手法(dp-svt)の比較を行った。
結果:FedAvg戦略を用いてトレーニングすると,各部位の極端なデータ分布(患者数とサイト間の正のラベル比のバランスの相違)がモデル性能の低下につながることが明らかとなった。
この問題は、適切なハイパーパラメータチューニングを使用してFedProxを使用する場合に解決される。
さらに,両者の差分プライバシー手法はDPを使わずにトレーニングしたモデルと同様のモデル性能を達成できることが示唆された。
結論: 2つのフェデレーション戦略の利点を実証的に評価し,差分プライバシー手法を用いたパラメータ選択のための最適戦略を提案する。
関連論文リスト
- Enhancing Performance for Highly Imbalanced Medical Data via Data Regularization in a Federated Learning Setting [6.22153888560487]
本手法の目的は,心血管疾患予測のためのモデル性能を向上させることである。
本手法は, 心臓血管疾患予測のための4つのデータセットにまたがって評価され, 異なるクライアントに分散している。
論文 参考訳(メタデータ) (2024-05-30T19:15:38Z) - Communication-Efficient Hybrid Federated Learning for E-health with Horizontal and Vertical Data Partitioning [67.49221252724229]
E-Healthは、スマートデバイスや医療機関が患者のデータを共同で収集することを可能にする。
eヘルスにフェデレートされた学習を適用することは、多くの課題に直面します。
医療データは水平および垂直に分割される。
HFLとVFLの単純な組み合わせには、訓練効率の低下、難聴収束分析、パラメータチューニング戦略の欠如など、制限がある。
論文 参考訳(メタデータ) (2024-04-15T19:45:07Z) - Improving Multiple Sclerosis Lesion Segmentation Across Clinical Sites:
A Federated Learning Approach with Noise-Resilient Training [75.40980802817349]
深層学習モデルは、自動的にMS病変を分節する約束を示しているが、正確な注釈付きデータの不足は、この分野の進歩を妨げている。
我々は,MS病変の不均衡分布とファジィ境界を考慮したDecoupled Hard Label Correction(DHLC)戦略を導入する。
また,集約型中央モデルを利用したCELC(Centrally Enhanced Label Correction)戦略も導入した。
論文 参考訳(メタデータ) (2023-08-31T00:36:10Z) - Decentralized Distributed Learning with Privacy-Preserving Data
Synthesis [9.276097219140073]
医療分野では、患者と臨床データの均一性を生かして、多施設共同研究がより一般化可能な発見をもたらすことがしばしばある。
最近のプライバシー規制は、データの共有を妨げ、その結果、診断と予後をサポートする機械学習ベースのソリューションを考案する。
ローカルノードの機能を統合する分散分散手法を提案し、プライバシを維持しながら複数のデータセットをまたいで一般化可能なモデルを提供する。
論文 参考訳(メタデータ) (2022-06-20T23:49:38Z) - Federated Offline Reinforcement Learning [55.326673977320574]
マルチサイトマルコフ決定プロセスモデルを提案する。
我々は,オフラインRLを対象とした最初のフェデレーション最適化アルゴリズムを設計する。
提案アルゴリズムでは,学習ポリシーの準最適性は,データが分散していないような速度に匹敵する,理論的保証を与える。
論文 参考訳(メタデータ) (2022-06-11T18:03:26Z) - A Differentially Private Probabilistic Framework for Modeling the
Variability Across Federated Datasets of Heterogeneous Multi-View
Observations [4.511923587827301]
我々のフレームワークは、潜在マスターの分布とクライアントのパラメータよりも期待(EM)によって効果的に最適化できることを示す。
アルツハイマー病に罹患した患者の臨床データから, マルチモーダル・メディカル・イメージング・データの解析と臨床成績について検討した。
論文 参考訳(メタデータ) (2022-04-15T07:20:47Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - Anonymizing Data for Privacy-Preserving Federated Learning [3.3673553810697827]
我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
論文 参考訳(メタデータ) (2020-02-21T02:30:16Z) - Multi-site fMRI Analysis Using Privacy-preserving Federated Learning and
Domain Adaptation: ABIDE Results [13.615292855384729]
高品質なディープラーニングモデルを訓練するには,大量の患者情報を集める必要がある。
患者データのプライバシを保護する必要があるため、複数の機関から中央データベースを組み立てることは困難である。
フェデレート・ラーニング(Federated Learning)は、エンティティのデータを集中化せずに、人口レベルのモデルをトレーニングすることを可能にする。
論文 参考訳(メタデータ) (2020-01-16T04:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。