論文の概要: Decentralized Gossip Mutual Learning (GML) for brain tumor segmentation
on multi-parametric MRI
- arxiv url: http://arxiv.org/abs/2401.15434v1
- Date: Sat, 27 Jan 2024 15:05:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 18:28:23.230479
- Title: Decentralized Gossip Mutual Learning (GML) for brain tumor segmentation
on multi-parametric MRI
- Title(参考訳): マルチパラメトリックmriを用いた脳腫瘍セグメンテーションのための分散ゴシップ相互学習(gml)
- Authors: Jingyun Chen, Yading Yuan
- Abstract要約: フェデレートラーニング(FL)は、プライベートデータを共有せずに、医療センター間で協調的なモデルトレーニングを可能にする。
Gossip Mutual Learning (GML) は,Gossip Protocol を用いてピアツーピア通信を行う分散フレームワークである。
- 参考スコア(独自算出の注目度): 0.7402598986326535
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated Learning (FL) enables collaborative model training among medical
centers without sharing private data. However, traditional FL risks on server
failures and suboptimal performance on local data due to the nature of
centralized model aggregation. To address these issues, we present Gossip
Mutual Learning (GML), a decentralized framework that uses Gossip Protocol for
direct peer-to-peer communication. In addition, GML encourages each site to
optimize its local model through mutual learning to account for data variations
among different sites. For the task of tumor segmentation using 146 cases from
four clinical sites in BraTS 2021 dataset, we demonstrated GML outperformed
local models and achieved similar performance as FedAvg with only 25%
communication overhead.
- Abstract(参考訳): Federated Learning (FL) は、プライベートデータを共有せずに、医療センター間で協調的なモデルトレーニングを可能にする。
しかし、従来のFLは、集中型モデルアグリゲーションの性質により、サーバ障害やローカルデータのサブ最適性能にリスクを及ぼす。
そこで本稿では,ピアツーピア通信にgossipプロトコルを用いた分散フレームワークであるgossip mutual learning (gml)を提案する。
さらに、GMLは各サイトに対して、異なるサイト間でのデータバリエーションを考慮するために、相互学習を通じてローカルモデルを最適化することを推奨する。
BraTS 2021データセットの4つの臨床部位から146症例を用いた腫瘍分節化作業において,GMLは局所モデルより優れ,FedAvgと同等の性能を示し,通信オーバーヘッドは25%に過ぎなかった。
関連論文リスト
- Decentralized Gossip Mutual Learning (GML) for automatic head and neck
tumor segmentation [0.7402598986326535]
フェデレートラーニング(FL)は、データ共有を必要とせずに、異なる医療センターから複雑な機械学習モデルを協調的にトレーニングするための有望な戦略として登場した。
我々は,Gossipプロトコルをピアツーピア通信に直接適用した分散協調学習フレームワークであるGossip Mutual Learning (GML)を提案する。
GMLはDice similarity Coefficient (DSC) を3.2%, 4.6%, 10.4%改善できることを示した。
論文 参考訳(メタデータ) (2024-01-11T01:04:30Z) - Whole-brain radiomics for clustered federated personalization in brain
tumor segmentation [0.0]
本稿では,異なるスキャナの使用によって生じる特徴変化に合わせて,新しいパーソナライズアルゴリズムを提案する。
これは、各3次元画像ボリュームのグローバルなテクスチャをキャプチャする一連の放射能特徴の計算に基づいている。
論文 参考訳(メタデータ) (2023-10-17T12:33:43Z) - Improving Multiple Sclerosis Lesion Segmentation Across Clinical Sites:
A Federated Learning Approach with Noise-Resilient Training [75.40980802817349]
深層学習モデルは、自動的にMS病変を分節する約束を示しているが、正確な注釈付きデータの不足は、この分野の進歩を妨げている。
我々は,MS病変の不均衡分布とファジィ境界を考慮したDecoupled Hard Label Correction(DHLC)戦略を導入する。
また,集約型中央モデルを利用したCELC(Centrally Enhanced Label Correction)戦略も導入した。
論文 参考訳(メタデータ) (2023-08-31T00:36:10Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Personalizing Federated Medical Image Segmentation via Local Calibration [9.171482226385551]
ひとつのモデルを使って、異なるサイトからさまざまなデータ分布に適応することは、非常に難しい。
現場間一貫性を活用するために,textbfLocal textbfCalibration (LC-Fed) を用いたパーソナライズドフェデレーションフレームワークを提案する。
提案手法は,最先端のパーソナライズされたFL法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-11T06:30:31Z) - Adaptive Personlization in Federated Learning for Highly Non-i.i.d. Data [37.667379000751325]
フェデレートラーニング(Federated Learning, FL)は、医療機関にグローバルモデルにおけるコラボレーションの見通しを提供する分散ラーニング手法である。
本研究では,FLの中間的半言語モデルを生成する適応階層クラスタリング手法について検討する。
本実験は, 分類精度の標準的なFL法と比較して, 不均質分布において有意な性能向上を示した。
論文 参考訳(メタデータ) (2022-07-07T17:25:04Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - Federated Learning from Small Datasets [48.879172201462445]
フェデレーション学習は、複数のパーティが、ローカルデータを共有せずに、共同モデルを共同でトレーニングすることを可能にする。
そこで本研究では,局所モデルの置換とモデルアグリゲーションを連動させる新しい手法を提案する。
置換は、各ローカルモデルをローカルデータセットのデージーチェーンに公開することで、データスパースドメインでのより効率的なトレーニングを実現する。
論文 参考訳(メタデータ) (2021-10-07T13:49:23Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - FedDG: Federated Domain Generalization on Medical Image Segmentation via
Episodic Learning in Continuous Frequency Space [63.43592895652803]
フェデレーションラーニングは、分散医療機関がプライバシ保護を備えた共有予測モデルを共同で学習することを可能にします。
臨床展開では、連合学習で訓練されたモデルは、連邦外の完全に見えない病院に適用された場合、パフォーマンス低下に苦しむ可能性がある。
そこで本研究では,この問題に対してELCFS(Episodic Learning in Continuous frequency Space)と呼ばれる新しいアプローチを提案する。
本手法の有効性は,2つの医用画像分割作業における最先端および深部アブレーション実験よりも優れていた。
論文 参考訳(メタデータ) (2021-03-10T13:05:23Z) - Multi-site fMRI Analysis Using Privacy-preserving Federated Learning and
Domain Adaptation: ABIDE Results [13.615292855384729]
高品質なディープラーニングモデルを訓練するには,大量の患者情報を集める必要がある。
患者データのプライバシを保護する必要があるため、複数の機関から中央データベースを組み立てることは困難である。
フェデレート・ラーニング(Federated Learning)は、エンティティのデータを集中化せずに、人口レベルのモデルをトレーニングすることを可能にする。
論文 参考訳(メタデータ) (2020-01-16T04:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。