論文の概要: Continual Learning for Peer-to-Peer Federated Learning: A Study on
Automated Brain Metastasis Identification
- arxiv url: http://arxiv.org/abs/2204.13591v1
- Date: Tue, 26 Apr 2022 20:17:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 12:46:25.255604
- Title: Continual Learning for Peer-to-Peer Federated Learning: A Study on
Automated Brain Metastasis Identification
- Title(参考訳): ピアツーピアフェデレーション学習のための連続学習:自動脳転移同定に関する研究
- Authors: Yixing Huang, Christoph Bert, Stefan Fischer, Manuel Schmidt, Arnd
D\"orfler, Andreas Maier, Rainer Fietkau, Florian Putz
- Abstract要約: ピアツーピアフェデレーション学習のアプローチとしての継続的学習は、ディープラーニングアルゴリズム開発におけるマルチセンタコラボレーションを促進することができる。
実験により, 連続学習は, 限られたデータを持つセンターの脳転移同定性能を向上させることができることを示した。
- 参考スコア(独自算出の注目度): 8.071094228545297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to data privacy constraints, data sharing among multiple centers is
restricted. Continual learning, as one approach to peer-to-peer federated
learning, can promote multicenter collaboration on deep learning algorithm
development by sharing intermediate models instead of training data. This work
aims to investigate the feasibility of continual learning for multicenter
collaboration on an exemplary application of brain metastasis identification
using DeepMedic. 920 T1 MRI contrast enhanced volumes are split to simulate
multicenter collaboration scenarios. A continual learning algorithm, synaptic
intelligence (SI), is applied to preserve important model weights for training
one center after another. In a bilateral collaboration scenario, continual
learning with SI achieves a sensitivity of 0.917, and naive continual learning
without SI achieves a sensitivity of 0.906, while two models trained on
internal data solely without continual learning achieve sensitivity of 0.853
and 0.831 only. In a seven-center multilateral collaboration scenario, the
models trained on internal datasets (100 volumes each center) without continual
learning obtain a mean sensitivity value of 0.725. With single-visit continual
learning (i.e., the shared model visits each center only once during training),
the sensitivity is improved to 0.788 and 0.849 without SI and with SI,
respectively. With iterative continual learning (i.e., the shared model
revisits each center multiple times during training), the sensitivity is
further improved to 0.914, which is identical to the sensitivity using mixed
data for training. Our experiments demonstrate that continual learning can
improve brain metastasis identification performance for centers with limited
data. This study demonstrates the feasibility of applying continual learning
for peer-to-peer federated learning in multicenter collaboration.
- Abstract(参考訳): データプライバシの制約により、複数のセンタ間でのデータ共有が制限される。
ピアツーピアフェデレーション学習のアプローチとしての継続的学習は、トレーニングデータの代わりに中間モデルを共有することによって、ディープラーニングアルゴリズム開発におけるマルチセンタコラボレーションを促進することができる。
本研究の目的は,DeepMedic を用いた脳転移同定の例による多施設共同学習の実現可能性を検討することである。
920 T1 MRIのコントラスト強化ボリュームは、マルチセンターコラボレーションシナリオをシミュレートするために分割される。
連続学習アルゴリズムであるシナプス知能(synaptic intelligence:si)は、中心を次々に訓練するための重要なモデル重みを保持するために用いられる。
双方向の協調シナリオでは、SIを用いた連続学習は0.917の感度を達成し、SIを使わずにナイーブな連続学習は0.906の感度を達成し、連続学習を使わずに内部データをトレーニングした2つのモデルは0.853と0.831の感度しか達成しない。
7中心の多角的コラボレーションシナリオでは、連続学習なしで内部データセット(各中心100巻)でトレーニングされたモデルは平均感度0.725を得る。
シングルビジット連続学習(つまり、共有モデルはトレーニング中に1回だけ各センターを訪れる)では、感度はSIなしで0.788と0.849に改善される。
反復連続学習(つまり、共有モデルがトレーニング中に各センターを複数回再訪する)により、感度はさらに0.914に改善され、トレーニング用混合データを使用する感度と同一である。
実験の結果, 連続学習は, 限られたデータを持つセンターの脳転移同定性能を向上させることが示された。
本研究は,多施設連携におけるピアツーピア連合学習における継続学習の適用可能性を示す。
関連論文リスト
- Multicenter Privacy-Preserving Model Training for Deep Learning Brain Metastases Autosegmentation [2.479757014250359]
本研究の目的は,マルチセンターデータの不均一性が深層学習脳転移(BM)オートセグメンテーション性能に与える影響を検討することである。
インクリメンタルトランスファー学習技術、すなわち、学習を忘れずに(LWF)、生データを共有せずにモデルの一般化性を改善する。
UKERプレトレーニングモデルがUSZに適用された場合、LWFはUKERとUSZテストデータの組み合わせで、単純TL(0.570)よりも平均F1スコア(0.839)、シングルセンタートレーニング(0.688)を達成する。
論文 参考訳(メタデータ) (2024-05-17T16:01:11Z) - Federated learning model for predicting major postoperative complications [2.565552377354702]
そこで我々は,9つの術後合併症を予測するためのフェデレーション学習モデルを開発した。
統合学習モデルと、一つのサイトで訓練されたローカル学習モデルと、2つのセンターから学習されたデータセットで訓練された中央学習モデルを比較した。
当社のフェデレート学習モデルは,各センターで最高の局所学習モデルに匹敵する性能を示し,高い一般化性を示した。
論文 参考訳(メタデータ) (2024-04-09T22:31:10Z) - Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - A Survey of Incremental Transfer Learning: Combining Peer-to-Peer
Federated Learning and Domain Incremental Learning for Multicenter
Collaboration [6.064986446665161]
データプライバシの制約は、マルチセンターコラボレーションによる高性能なディープラーニングモデルの開発を妨げる。
ウェイトトランスファーメソッドは、生データなしで中間モデルウェイトを共有するため、データのプライバシ制限を回避できる。
モデルを1つの中心から次の中心に移すと、問題を忘れてしまうため、性能低下が観測される。
本研究では、従来のドメイン/タスクインクリメンタル学習フレームワークをインクリメンタルトランスファー学習に適用する。
論文 参考訳(メタデータ) (2023-09-29T12:43:21Z) - Incomplete Multimodal Learning for Complex Brain Disorders Prediction [65.95783479249745]
本稿では,変換器と生成対向ネットワークを用いた不完全なマルチモーダルデータ統合手法を提案する。
アルツハイマー病神経画像イニシアチブコホートを用いたマルチモーダルイメージングによる認知変性と疾患予後の予測に本手法を適用した。
論文 参考訳(メタデータ) (2023-05-25T16:29:16Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Self-supervised contrastive learning of echocardiogram videos enables
label-efficient cardiac disease diagnosis [48.64462717254158]
心エコービデオを用いた自己教師型コントラスト学習手法であるエコーCLRを開発した。
左室肥大症 (LVH) と大動脈狭窄症 (AS) の分類成績は,EchoCLR の訓練により有意に改善した。
EchoCLRは、医療ビデオの表現を学習する能力に特有であり、SSLがラベル付きデータセットからラベル効率の高い疾患分類を可能にすることを実証している。
論文 参考訳(メタデータ) (2022-07-23T19:17:26Z) - Evaluation and Analysis of Different Aggregation and Hyperparameter
Selection Methods for Federated Brain Tumor Segmentation [2.294014185517203]
我々は分散学習手法であるフェデレート学習パラダイムに注目した。
研究は、連合学習が従来の中央訓練と競争力を発揮することを示した。
我々は、より高速な収束と優れた性能のための様々な戦略を探求し、強力な非IIDケースでも機能する。
論文 参考訳(メタデータ) (2022-02-16T07:49:04Z) - Federated Learning for Multi-Center Imaging Diagnostics: A Study in
Cardiovascular Disease [0.8687046723936027]
心臓血管磁気共鳴(CMR)のモダリティに関する第1回フェデレート学習研究について紹介する。
我々は、肥大型心筋症(HCM)の診断に焦点を当て、M&MデータセットとACDCデータセットのサブセットから派生した4つのセンターを使用する。
データのサイズが小さい(4つのセンターから180の被験者を抽出)にもかかわらず、プライバシ保護のためのフェデレーション学習が有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-07-07T08:54:08Z) - A Low Complexity Decentralized Neural Net with Centralized Equivalence
using Layer-wise Learning [49.15799302636519]
我々は、分散処理ノード(労働者)で最近提案された大規模ニューラルネットワークをトレーニングするために、低複雑性分散学習アルゴリズムを設計する。
我々の設定では、トレーニングデータは作業者間で分散されるが、プライバシやセキュリティ上の懸念からトレーニングプロセスでは共有されない。
本研究では,データが一箇所で利用可能であるかのように,等価な学習性能が得られることを示す。
論文 参考訳(メタデータ) (2020-09-29T13:08:12Z) - Automatic sleep stage classification with deep residual networks in a
mixed-cohort setting [63.52264764099532]
我々は,大規模コホートの一般化性を評価するために,新しいディープニューラルネットワークモデルを開発した。
総合的な分類精度はトレーニングデータの分数を増やして向上した。
論文 参考訳(メタデータ) (2020-08-21T10:48:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。