論文の概要: FedKBP: Federated dose prediction framework for knowledge-based planning in radiation therapy
- arxiv url: http://arxiv.org/abs/2408.10275v1
- Date: Sat, 17 Aug 2024 14:57:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 18:14:26.806278
- Title: FedKBP: Federated dose prediction framework for knowledge-based planning in radiation therapy
- Title(参考訳): FedKBP:放射線治療における知識ベース計画のためのフェデレート線量予測フレームワーク
- Authors: Jingyun Chen, Martin King, Yading Yuan,
- Abstract要約: ドーズ予測は、患者固有の線量分布を自動的に生成することにより、知識ベース計画(KBP)において重要な役割を果たす。
深層学習に基づく線量予測手法の最近の進歩は、データコントリビュータ間の協調が必要である。
フェデレーションラーニング(FL)がソリューションとして登場し、医療センターは患者のデータのプライバシーを損なうことなく、ディープラーニングモデルを共同で訓練することができる。
- 参考スコア(独自算出の注目度): 0.5575343193009424
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Dose prediction plays a key role in knowledge-based planning (KBP) by automatically generating patient-specific dose distribution. Recent advances in deep learning-based dose prediction methods necessitates collaboration among data contributors for improved performance. Federated learning (FL) has emerged as a solution, enabling medical centers to jointly train deep-learning models without compromising patient data privacy. We developed the FedKBP framework to evaluate the performances of centralized, federated, and individual (i.e. separated) training of dose prediction model on the 340 plans from OpenKBP dataset. To simulate FL and individual training, we divided the data into 8 training sites. To evaluate the effect of inter-site data variation on model training, we implemented two types of case distributions: 1) Independent and identically distributed (IID), where the training and validating cases were evenly divided among the 8 sites, and 2) non-IID, where some sites have more cases than others. The results show FL consistently outperforms individual training on both model optimization speed and out-of-sample testing scores, highlighting the advantage of FL over individual training. Under IID data division, FL shows comparable performance to centralized training, underscoring FL as a promising alternative to traditional pooled-data training. Under non-IID division, larger sites outperformed smaller sites by up to 19% on testing scores, confirming the need of collaboration among data owners to achieve better prediction accuracy. Meanwhile, non-IID FL showed reduced performance as compared to IID FL, posing the need for more sophisticated FL method beyond mere model averaging to handle data variation among participating sites.
- Abstract(参考訳): ドーズ予測は、患者固有の線量分布を自動的に生成することにより、知識ベース計画(KBP)において重要な役割を果たす。
深層学習に基づく線量予測手法の最近の進歩は、データコントリビュータ間の協調が必要である。
フェデレートラーニング(FL)がソリューションとして登場し、患者データのプライバシーを損なうことなく、医療センターが共同でディープラーニングモデルをトレーニングできるようになった。
We developed the FedKBP framework to evaluate the performances of central, federated, and individual (i.e.) training of dose prediction model on the 340 plans from the OpenKBP dataset。
FLと個別トレーニングをシミュレートするため,データを8つのトレーニングサイトに分割した。
モデル学習におけるサイト間データ変動の影響を評価するために,2種類のケース分布を実装した。
1)独立・同一分散(IID)では、訓練・検証事例を8箇所に均等に分けて行う。
2)IID以外のサイトでは,他のサイトよりも多くのケースがある。
その結果、FLはモデルの最適化速度とサンプル外テストスコアの両方で個別のトレーニングを一貫して上回り、個別のトレーニングよりもFLの利点を強調した。
IIDデータディビジョンの下では、FLは集中型トレーニングに匹敵するパフォーマンスを示し、従来のプールデータトレーニングの代替としてFLを推奨している。
非IID部門では、より大きなサイトがテストスコアを最大19%向上させ、より良い予測精度を達成するためにデータ所有者間のコラボレーションの必要性を確認した。
一方,非IID FLはIDD FLに比べて性能が低下し,参加サイト間のデータ変動を処理するために,単なるモデル平均を超える高度なFL法が必要となった。
関連論文リスト
- Can We Theoretically Quantify the Impacts of Local Updates on the Generalization Performance of Federated Learning? [50.03434441234569]
フェデレートラーニング(FL)は、直接データ共有を必要とせず、さまざまなサイトで機械学習モデルをトレーニングする効果により、大きな人気を集めている。
局所的な更新を伴うFLは通信効率のよい分散学習フレームワークであることが様々なアルゴリズムによって示されているが、局所的な更新によるFLの一般化性能は比較的低い。
論文 参考訳(メタデータ) (2024-09-05T19:00:18Z) - Multi-level Personalized Federated Learning on Heterogeneous and Long-Tailed Data [10.64629029156029]
マルチレベル・パーソナライズド・フェデレーション・ラーニング(MuPFL)という革新的パーソナライズド・パーソナライズド・ラーニング・フレームワークを導入する。
MuPFLは3つの重要なモジュールを統合している: Biased Activation Value Dropout (BAVD), Adaptive Cluster-based Model Update (ACMU), Prior Knowledge-assisted Fine-tuning (PKCF)。
様々な実世界のデータセットの実験では、MuPFLは極端に非i.d.と長い尾の条件下であっても、最先端のベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2024-05-10T11:52:53Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - DPP-based Client Selection for Federated Learning with Non-IID Data [97.1195165400568]
本稿では,統合学習(FL)のコミュニケーションボトルネックに対処するクライアント選択(CS)手法を提案する。
まず、FLにおけるCSの効果を分析し、各学習ラウンドにおけるトレーニングデータセットの多様化に参加者を適切に選択することで、FLトレーニングを加速させることができることを示す。
我々は、データプロファイリングと決定点プロセス(DPP)サンプリング技術を活用し、DPPに基づく参加者選択(FL-DP$3$S)によるフェデレートラーニング(Federated Learning)と呼ばれるアルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-03-30T13:14:54Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Adaptive Personlization in Federated Learning for Highly Non-i.i.d. Data [37.667379000751325]
フェデレートラーニング(Federated Learning, FL)は、医療機関にグローバルモデルにおけるコラボレーションの見通しを提供する分散ラーニング手法である。
本研究では,FLの中間的半言語モデルを生成する適応階層クラスタリング手法について検討する。
本実験は, 分類精度の標準的なFL法と比較して, 不均質分布において有意な性能向上を示した。
論文 参考訳(メタデータ) (2022-07-07T17:25:04Z) - An Empirical Study on Distribution Shift Robustness From the Perspective
of Pre-Training and Data Augmentation [91.62129090006745]
本稿では,事前学習とデータ拡張の観点から分布シフト問題を考察する。
我々は,事前学習とデータ拡張に焦点を当てた,最初の総合的な実証的研究を行った。
論文 参考訳(メタデータ) (2022-05-25T13:04:53Z) - Label-Efficient Self-Supervised Federated Learning for Tackling Data
Heterogeneity in Medical Imaging [23.08596805950814]
医用画像解析のための頑健でラベル効率の良い自己教師型FLフレームワークを提案する。
具体的には,既存のFLパイプラインに分散自己教師型事前学習パラダイムを導入する。
自己教師付きFLアルゴリズムは,分布外データに対してよく一般化し,限定ラベルのシナリオにおいてより効果的にフェデレーションモデルを学習することを示す。
論文 参考訳(メタデータ) (2022-05-17T18:33:43Z) - Prototype Guided Federated Learning of Visual Feature Representations [15.021124010665194]
Federated Learning(FL)は、分散モデルトレーニングを可能にするフレームワークである。
既存の手法は、内部表現を無視したモデルを集約する。
我々は、分散データ上で学習した表現のマージンを用いてクライアントの偏差を計算するFedProtoを紹介する。
論文 参考訳(メタデータ) (2021-05-19T08:29:12Z) - Improving Accuracy of Federated Learning in Non-IID Settings [11.908715869667445]
Federated Learning(FL)は、データを共有することなく、参加するエージェントのセットが協力してモデルをトレーニングできる、分散機械学習プロトコルである。
FLの性能はエージェントの局所的なデータ分布と密接に関連していることが観察されている。
本研究では,FLに付加的な通信オーバーヘッドを発生させることなく,訓練されたモデルの性能を向上させるための4つの簡単な手法を同定する。
論文 参考訳(メタデータ) (2020-10-14T21:02:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。