論文の概要: FedFTN: Personalized Federated Learning with Deep Feature Transformation
Network for Multi-institutional Low-count PET Denoising
- arxiv url: http://arxiv.org/abs/2304.00570v3
- Date: Fri, 6 Oct 2023 16:20:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 13:55:19.379303
- Title: FedFTN: Personalized Federated Learning with Deep Feature Transformation
Network for Multi-institutional Low-count PET Denoising
- Title(参考訳): FedFTN:多施設PETデノベーションのためのDeep Feature Transformation Networkによる個人化フェデレーション学習
- Authors: Bo Zhou, Huidong Xie, Qiong Liu, Xiongchao Chen, Xueqi Guo, Zhicheng
Feng, Jun Hou, S. Kevin Zhou, Biao Li, Axel Rominger, Kuangyu Shi, James S.
Duncan, Chi Liu
- Abstract要約: 低周波PET画像は低信号-雑音比(SNR)に悩まされることが多い
近年のディープラーニングの進歩は,PET画像の品質向上に大きな可能性を秘めている。
本稿では,これらの課題に対処する個人化されたフェデレーション学習戦略であるFedFTNを提案する。
- 参考スコア(独自算出の注目度): 28.777037516767276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-count PET is an efficient way to reduce radiation exposure and
acquisition time, but the reconstructed images often suffer from low
signal-to-noise ratio (SNR), thus affecting diagnosis and other downstream
tasks. Recent advances in deep learning have shown great potential in improving
low-count PET image quality, but acquiring a large, centralized, and diverse
dataset from multiple institutions for training a robust model is difficult due
to privacy and security concerns of patient data. Moreover, low-count PET data
at different institutions may have different data distribution, thus requiring
personalized models. While previous federated learning (FL) algorithms enable
multi-institution collaborative training without the need of aggregating local
data, addressing the large domain shift in the application of
multi-institutional low-count PET denoising remains a challenge and is still
highly under-explored. In this work, we propose FedFTN, a personalized
federated learning strategy that addresses these challenges. FedFTN uses a
local deep feature transformation network (FTN) to modulate the feature outputs
of a globally shared denoising network, enabling personalized low-count PET
denoising for each institution. During the federated learning process, only the
denoising network's weights are communicated and aggregated, while the FTN
remains at the local institutions for feature transformation. We evaluated our
method using a large-scale dataset of multi-institutional low-count PET imaging
data from three medical centers located across three continents, and showed
that FedFTN provides high-quality low-count PET images, outperforming previous
baseline FL reconstruction methods across all low-count levels at all three
institutions.
- Abstract(参考訳): 低位PETは放射線照射と取得時間を短縮する効率的な方法であるが、再構成された画像は低信号対雑音比 (SNR) に悩まされることが多く、診断や下流作業に影響を及ぼす。
近年のディープラーニングの進歩は,PET画像の品質向上に大きな可能性を示しているが,患者データのプライバシやセキュリティ上の懸念から,堅牢なモデルをトレーニングするために,複数の機関から大規模で集中的かつ多様なデータセットを取得することは困難である。
さらに、異なる機関のローカウンドpetデータは異なるデータ分布を持つため、パーソナライズされたモデルが必要となる。
従来のフェデレーション学習(fl)アルゴリズムでは,ローカルデータの集約を必要とせずに,多施設共同トレーニングを可能にするが,複数機関の低人数petデノイジング適用における大きなドメインシフトへの対処は依然として課題であり,未検討のままである。
本稿では,これらの課題に対処する個人化されたフェデレーション学習戦略であるFedFTNを提案する。
FedFTNは、ローカルなディープ・フィーチャー・トランスフォーメーション・ネットワーク(FTN)を使用して、グローバルに共有されているデノナイジング・ネットワークの機能出力を変調し、各機関でパーソナライズされたローカウントPETデノナイジングを可能にする。
連合学習の過程では、分断ネットワークの重みのみが通信され、集約され、一方ftnは特徴変換のための地方機関に残る。
本手法は,3大陸にまたがる3つの医療センターの多施設間におけるPET画像データの大規模データセットを用いて評価し,FedFTNが高品質なPET画像を提供することを示した。
関連論文リスト
- Anatomical 3D Style Transfer Enabling Efficient Federated Learning with Extremely Low Communication Costs [1.3654846342364306]
本稿では,多臓器分割作業に3Dスタイル転送を利用する新しいフェデレートラーニング(FL)手法を提案する。
これらのクラスターに基づいてスタイルを混ぜることで、解剖学的情報を保存し、モデルに組織内多様性を学習させる。
実験により,通信コストが極めて制限された場合においても,本手法は精度を維持可能であることが示された。
論文 参考訳(メタデータ) (2024-10-26T07:00:40Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Learning Federated Visual Prompt in Null Space for MRI Reconstruction [83.71117888610547]
我々はMRI再建のためのグローバルプロンプトのヌル空間におけるフェデレートされた視覚的プロンプトを学習するための新しいアルゴリズムであるFedPRを提案する。
FedPRは、ローカルトレーニングデータの限られた量を与えられた場合、通信コストの6%で最先端のFLアルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2023-03-28T17:46:16Z) - When Federated Learning Meets Pre-trained Language Models'
Parameter-Efficient Tuning Methods [22.16636947999123]
フェデレート学習に様々なパラメータ効率チューニング(PETuning)手法を導入する。
具体的には,FL における代表的 PLM チューニング手法の総合的研究について述べる。
全体としての通信オーバーヘッドは、局所的なチューニングと、軽量モデルパラメータのグローバル集約によって大幅に削減できる。
論文 参考訳(メタデータ) (2022-12-20T06:44:32Z) - Plankton-FL: Exploration of Federated Learning for Privacy-Preserving
Training of Deep Neural Networks for Phytoplankton Classification [81.04987357598802]
本研究では,植物プランクトン分類のための深層ニューラルネットワークのプライバシー保護トレーニングにフェデレート学習を活用する可能性を検討する。
我々は2つの異なるフェデレーション学習フレームワーク、フェデレーション学習(FL)と相互排他的FL(ME-FL)をシミュレートする。
本研究では,植物プランクトンモニタリングにおけるフェデレート学習の可能性と可能性について実験的に検証した。
論文 参考訳(メタデータ) (2022-12-18T02:11:03Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Pre-training via Denoising for Molecular Property Prediction [53.409242538744444]
本稿では,3次元分子構造の大規模データセットを平衡に利用した事前学習手法について述べる。
近年のノイズレギュラー化の進展に触発されて, 事前学習の目的は, 雑音の除去に基づくものである。
論文 参考訳(メタデータ) (2022-05-31T22:28:34Z) - Label-Efficient Self-Supervised Federated Learning for Tackling Data
Heterogeneity in Medical Imaging [23.08596805950814]
医用画像解析のための頑健でラベル効率の良い自己教師型FLフレームワークを提案する。
具体的には,既存のFLパイプラインに分散自己教師型事前学習パラダイムを導入する。
自己教師付きFLアルゴリズムは,分布外データに対してよく一般化し,限定ラベルのシナリオにおいてより効果的にフェデレーションモデルを学習することを示す。
論文 参考訳(メタデータ) (2022-05-17T18:33:43Z) - FedDKD: Federated Learning with Decentralized Knowledge Distillation [3.9084449541022055]
分散知識蒸留法(FedDKD)を応用した新しいフェデレートラーニングフレームワークを提案する。
我々は、FedDKDが、いくつかのDKDステップにおいて、より効率的なコミュニケーションと訓練により最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-02T07:54:07Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Ternary Compression for Communication-Efficient Federated Learning [17.97683428517896]
フェデレートされた学習は、プライバシ保護とセキュアな機械学習に対する潜在的なソリューションを提供する。
本稿では,第3次フェデレーション平均化プロトコル(T-FedAvg)を提案する。
その結果,提案したT-FedAvgは通信コストの低減に有効であり,非IIDデータの性能も若干向上できることがわかった。
論文 参考訳(メタデータ) (2020-03-07T11:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。