論文の概要: One Model to Unite Them All: Personalized Federated Learning of
Multi-Contrast MRI Synthesis
- arxiv url: http://arxiv.org/abs/2207.06509v1
- Date: Wed, 13 Jul 2022 20:14:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 13:41:28.390025
- Title: One Model to Unite Them All: Personalized Federated Learning of
Multi-Contrast MRI Synthesis
- Title(参考訳): 全てを統一する1つのモデル:マルチコントラストMRI合成の個人化フェデレーション学習
- Authors: Onat Dalmaz, Usama Mirza, G\"okberk Elmas, Muzaffer \"Ozbey, Salman UH
Dar, Emir Ceyani, Salman Avestimehr, Tolga \c{C}ukur
- Abstract要約: 学習ベースのMRI翻訳は、ソースコントラストをターゲットコントラスト画像にマッピングする合成モデルを含む。
ここでは、MRI合成のための最初のパーソナライズされたFL法(pFL Synth)を紹介する。
pFL Synthは、個々のサイトやソース・ターゲットのコントラストに固有の潜伏剤を生成するマッパーを備えた敵モデルに基づいている。
- 参考スコア(独自算出の注目度): 5.3963856146595095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based MRI translation involves a synthesis model that maps a
source-contrast onto a target-contrast image. Multi-institutional
collaborations are key to training synthesis models across broad datasets, yet
centralized training involves privacy risks. Federated learning (FL) is a
collaboration framework that instead adopts decentralized training to avoid
sharing imaging data and mitigate privacy concerns. However, FL-trained models
can be impaired by the inherent heterogeneity in the distribution of imaging
data. On the one hand, implicit shifts in image distribution are evident across
sites, even for a common translation task with fixed source-target
configuration. Conversely, explicit shifts arise within and across sites when
diverse translation tasks with varying source-target configurations are
prescribed. To improve reliability against domain shifts, here we introduce the
first personalized FL method for MRI Synthesis (pFLSynth). pFLSynth is based on
an adversarial model equipped with a mapper that produces latents specific to
individual sites and source-target contrasts. It leverages novel
personalization blocks that adaptively tune the statistics and weighting of
feature maps across the generator based on these latents. To further promote
site-specificity, partial model aggregation is employed over downstream layers
of the generator while upstream layers are retained locally. As such, pFLSynth
enables training of a unified synthesis model that can reliably generalize
across multiple sites and translation tasks. Comprehensive experiments on
multi-site datasets clearly demonstrate the enhanced performance of pFLSynth
against prior federated methods in multi-contrast MRI synthesis.
- Abstract(参考訳): 学習ベースのMRI翻訳は、ソースコントラストをターゲットコントラスト画像にマッピングする合成モデルを含む。
幅広いデータセットにわたる合成モデルをトレーニングする上で、多施設のコラボレーションが鍵となる。
フェデレートラーニング(FL)は、画像データの共有とプライバシーの懸念を軽減するために、分散トレーニングを採用するコラボレーションフレームワークである。
しかし、FL学習モデルは、画像データの分布に固有の不均一性によって損なわれる可能性がある。
一方で、固定されたソースターゲット設定を持つ共通の翻訳タスクであっても、画像分布の暗黙的なシフトがサイト間で明らかにされる。
逆に、ソースターゲット設定の異なる様々な翻訳タスクが設定されたときに、サイト内およびサイト間で明示的なシフトが発生する。
領域シフトに対する信頼性を向上させるために,MRI合成のためのパーソナライズされたFL法(pFLSynth)を提案する。
pFLSynthは、個々のサイトやソースターゲットのコントラストに固有の潜伏剤を生成するマッパーを備えた敵モデルに基づいている。
これは新しいパーソナライズブロックを活用し、これらの潜伏子に基づいてジェネレータ全体の特徴写像の統計と重み付けを適応的に調整する。
サイト固有性をさらに促進するために、上流層をローカルに保持しながら、ジェネレータの下流層に部分モデルアグリゲーションを用いる。
したがって、pFLSynthは複数のサイトや翻訳タスクを確実に一般化できる統一合成モデルのトレーニングを可能にする。
マルチコントラストMRI合成において,pFLSynthの事前フェデレーション法に対する性能向上が明らかに示された。
関連論文リスト
- Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Source-Free Collaborative Domain Adaptation via Multi-Perspective
Feature Enrichment for Functional MRI Analysis [55.03872260158717]
安静時MRI機能(rs-fMRI)は、神経疾患の分析を助けるために多地点で研究されている。
ソース領域とターゲット領域の間のfMRIの不均一性を低減するための多くの手法が提案されている。
しかし、マルチサイト研究における懸念やデータストレージの負担のため、ソースデータの取得は困難である。
我々は、fMRI解析のためのソースフリー協調ドメイン適応フレームワークを設計し、事前訓練されたソースモデルとラベルなしターゲットデータのみにアクセスできるようにする。
論文 参考訳(メタデータ) (2023-08-24T01:30:18Z) - UniDiff: Advancing Vision-Language Models with Generative and
Discriminative Learning [86.91893533388628]
本稿では、画像テキストコントラスト学習(ITC)、テキスト条件付き画像合成学習(IS)、相互意味整合性モデリング(RSC)を統合した統合マルチモーダルモデルUniDiffを提案する。
UniDiffはマルチモーダル理解と生成タスクの両方において汎用性を示す。
論文 参考訳(メタデータ) (2023-06-01T15:39:38Z) - Personalized Federated Learning via Gradient Modulation for
Heterogeneous Text Summarization [21.825321314169642]
本研究では,グローバルモデルを生データを共有せずに協調学習方法で共有することのできる,連合学習テキスト要約方式を提案する。
FedSUMMはタスク固有テキスト要約のためのPFLアルゴリズム上でより高速なモデル収束を実現することができる。
論文 参考訳(メタデータ) (2023-04-23T03:18:46Z) - Unifying and Personalizing Weakly-supervised Federated Medical Image
Segmentation via Adaptive Representation and Aggregation [1.121358474059223]
フェデレートラーニング(FL)は、データプライバシとセキュリティを損なうことなく、複数のサイトが協力して強力なディープモデルをトレーニングすることを可能にする。
微粒な監督を施した弱く監督されたセグメンテーションは、アノテーションコストを下げる大きな可能性を秘めているため、ますます注目されている。
医用画像セグメンテーションのための新しいFLフレームワークであるFedICRAを提案する。
論文 参考訳(メタデータ) (2023-04-12T06:32:08Z) - Tensor Decomposition based Personalized Federated Learning [12.420951968273574]
Federated Learning(FL)は、ユーザのプライベートデータを収集することなく、確実に協調的なトレーニングを実現する、新しい分散機械学習フレームワークである。
FLの頻繁なコミュニケーションと平均集約戦略により、統計多様性データや大規模モデルへのスケーリングが困難になる。
本稿では,分解に基づくパーソナライズドラーニング(TDPFed)と呼ばれるFLフレームワークを提案する。このフレームワークでは,テンソル化線形層と畳み込み層を持つ新しいテンソル化局所モデルを設計し,通信コストを削減する。
論文 参考訳(メタデータ) (2022-08-27T08:09:14Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - Style-Hallucinated Dual Consistency Learning for Domain Generalized
Semantic Segmentation [117.3856882511919]
本稿では、ドメインシフトを処理するためのStyle-HAllucinated Dual consistEncy Learning(SHADE)フレームワークを提案する。
SHADEは3つの実世界のデータセットの平均mIoUに対して5.07%と8.35%の精度で改善し、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-04-06T02:49:06Z) - Federated Learning of Generative Image Priors for MRI Reconstruction [5.3963856146595095]
マルチインスティカルな取り組みは、画像データのクロスサイト共有中にプライバシー上のリスクが発生するにもかかわらず、ディープMRI再構成モデルのトレーニングを容易にする。
FedGIMP (FedGIMP) を用いた新しいMRI再構成法を提案する。
FedGIMPは、2段階のアプローチを利用する: 生成MRIのクロスサイト学習と、イメージングオペレーターの主題固有の注入である。
論文 参考訳(メタデータ) (2022-02-08T22:17:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。