論文の概要: Generative Autoregressive Transformers for Model-Agnostic Federated MRI Reconstruction
- arxiv url: http://arxiv.org/abs/2502.04521v3
- Date: Thu, 06 Nov 2025 21:25:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 18:58:55.526503
- Title: Generative Autoregressive Transformers for Model-Agnostic Federated MRI Reconstruction
- Title(参考訳): モデル非依存型MRI画像再構成のための自己回帰変換器
- Authors: Valiyeh A. Nezhad, Gokberk Elmas, Bilal Kabas, Fuat Arslan, Emine U. Saritas, Tolga Çukur,
- Abstract要約: FedGATは、MR画像のグローバルな生成を協調的に訓練するモデルに依存しないFL技術である。
第2階層では、各サイトは、他のサイトからの合成MRIデータで局所データを増強することにより、好みの再構築モデルを個別に訓練する。
多施設データセットの実験では、FedGATは内部およびクロスサイト再構築性能において最先端のFLベースラインを上回っている。
- 参考スコア(独自算出の注目度): 4.486239802173208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While learning-based models hold great promise for MRI reconstruction, single-site models trained on limited local datasets often show poor generalization. This has motivated collaborative training across institutions via federated learning (FL)-a privacy-preserving framework that aggregates model updates instead of sharing raw data. Conventional FL requires architectural homogeneity, restricting sites from using models tailored to their resources or needs. To address this limitation, we propose FedGAT, a model-agnostic FL technique that first collaboratively trains a global generative prior for MR images, adapted from a natural image foundation model composed of a variational autoencoder (VAE) and a transformer that generates images via spatial-scale autoregression. We fine-tune the transformer module after injecting it with a lightweight site-specific prompting mechanism, keeping the VAE frozen, to efficiently adapt the model to multi-site MRI data. In a second tier, each site independently trains its preferred reconstruction model by augmenting local data with synthetic MRI data from other sites, generated by site-prompting the tuned prior. This decentralized augmentation improves generalization while preserving privacy. Experiments on multi-institutional datasets show that FedGAT outperforms state-of-the-art FL baselines in both within- and cross-site reconstruction performance under model-heterogeneous settings.
- Abstract(参考訳): 学習ベースのモデルはMRI再構成に大いに期待できるが、限られたローカルデータセットで訓練された単一サイトモデルは、しばしば一般化が不十分である。
これは、生データを共有するのではなく、モデル更新を集約するプライバシ保護フレームワークであるフェデレートラーニング(FL)を通じて、機関間の協調トレーニングを動機付けている。
従来のFLはアーキテクチャの均質性を必要とし、そのリソースやニーズに合わせたモデルの使用をサイトが制限している。
この制限に対処するために、FedGATというモデル非依存のFL技術を提案し、まず、空間スケールの自己回帰によって画像を生成する可変オートエンコーダ(VAE)と変換器からなる自然な画像基盤モデルから、MR画像のグローバルな生成を協調的に訓練する。
トランスモジュールを軽量なサイト固有のプロンプト機構で注入し,VAEを凍結させ,マルチサイトMRIデータに効率よくモデルを適応させる。
第2階層では、各サイトは、調整前のサイトプロンプトによって生成された、他のサイトからの合成MRIデータで局所データを増強することにより、好みの再構築モデルを個別に訓練する。
この分散化拡張は、プライバシーを維持しながら一般化を改善する。
多施設データセットの実験により、FedGATはモデルヘテロジニアス設定下で、内部およびクロスサイト再構築性能において最先端のFLベースラインを上回っていることが示された。
関連論文リスト
- Mosaic: Data-Free Knowledge Distillation via Mixture-of-Experts for Heterogeneous Distributed Environments [8.494154839146622]
Federated Learning(FL)は、クライアントがデータのプライバシを保持しながらモデルを協調的にトレーニングすることを可能にする、分散機械学習パラダイムである。
異種分散環境に適した新しいデータフリーな知識蒸留フレームワークであるMosaicを提案する。
Mosaicは、専門知識に基づいてクライアントモデルからMixture-of-Experts(MoE)を作成し、生成されたデータを使用してグローバルモデルに蒸留する。
論文 参考訳(メタデータ) (2025-05-26T08:52:49Z) - FedSKD: Aggregation-free Model-heterogeneous Federated Learning using Multi-dimensional Similarity Knowledge Distillation [7.944298319589845]
フェデレートラーニング(FL)は、直接データを共有することなく、プライバシー保護のための協調モデルトレーニングを可能にする。
MHFL(Model-heterogeneous FL)は、クライアントが計算資源やアプリケーション固有のニーズに合わせて、不均一なアーキテクチャでパーソナライズされたモデルを訓練することを可能にする。
ピアツーピア(P2P)FLはサーバ依存を除去するが、モデルドリフトと知識の希釈に悩まされ、不均一な設定での有効性が制限される。
ラウンドロビンモデル循環による直接知識交換を容易にする新しいMHFLフレームワークであるFedSKDを提案する。
論文 参考訳(メタデータ) (2025-03-23T05:33:10Z) - Zero-shot Dynamic MRI Reconstruction with Global-to-local Diffusion Model [17.375064910924717]
本稿では,Glob-al-to-local Diffusion Model(Glob-al-to-local Diffusion Model)と呼ばれる時間インターリーブ取得方式に基づく動的MRI再構成手法を提案する。
提案手法は, 騒音の低減と保存の両面において良好に機能し, 教師付き手法に匹敵する再現性を実現する。
論文 参考訳(メタデータ) (2024-11-06T07:40:27Z) - Automatically Learning Hybrid Digital Twins of Dynamical Systems [56.69628749813084]
Digital Twins (DT)は、現実世界のシステムの状態と時間力学をシミュレートする。
DTは、しばしばデータスカース設定で目に見えない条件に一般化するのに苦労します。
本稿では,HDTwinsを自律的に提案し,評価し,最適化するための進化的アルゴリズム(textbfHDTwinGen$)を提案する。
論文 参考訳(メタデータ) (2024-10-31T07:28:22Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - Vertical Federated Learning over Cloud-RAN: Convergence Analysis and
System Optimization [82.12796238714589]
高速かつ正確なモデルアグリゲーションを実現するために,クラウド無線アクセスネットワーク(Cloud-RAN)ベースの垂直FLシステムを提案する。
アップリンクとダウンリンクの両方の伝送を考慮した垂直FLアルゴリズムの収束挙動を特徴付ける。
我々は,連続凸近似と代替凸探索に基づくシステム最適化アルゴリズムを開発した,連系トランシーバとフロントホール量子化設計によるシステム最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-04T09:26:03Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - One Model to Unite Them All: Personalized Federated Learning of
Multi-Contrast MRI Synthesis [5.3963856146595095]
学習ベースのMRI翻訳は、ソースコントラストをターゲットコントラスト画像にマッピングする合成モデルを含む。
ここでは、MRI合成のための最初のパーソナライズされたFL法(pFL Synth)を紹介する。
pFL Synthは、個々のサイトやソース・ターゲットのコントラストに固有の潜伏剤を生成するマッパーを備えた敵モデルに基づいている。
論文 参考訳(メタデータ) (2022-07-13T20:14:16Z) - Federated Learning of Generative Image Priors for MRI Reconstruction [5.3963856146595095]
マルチインスティカルな取り組みは、画像データのクロスサイト共有中にプライバシー上のリスクが発生するにもかかわらず、ディープMRI再構成モデルのトレーニングを容易にする。
FedGIMP (FedGIMP) を用いた新しいMRI再構成法を提案する。
FedGIMPは、2段階のアプローチを利用する: 生成MRIのクロスサイト学習と、イメージングオペレーターの主題固有の注入である。
論文 参考訳(メタデータ) (2022-02-08T22:17:57Z) - Specificity-Preserving Federated Learning for MR Image Reconstruction [94.58912814426122]
統合学習は、磁気共鳴(MR)画像再構成におけるデータのプライバシーと効率を改善するために使用できる。
近年のFL技術は、グローバルモデルの一般化を強化することで、この問題を解決する傾向にある。
MR画像再構成のための特異性保存FLアルゴリズム(FedMRI)を提案する。
論文 参考訳(メタデータ) (2021-12-09T22:13:35Z) - FedHM: Efficient Federated Learning for Heterogeneous Models via
Low-rank Factorization [16.704006420306353]
スケーラブルなフェデレート学習フレームワークは、異なる計算能力と通信能力を備えた異種クライアントに対処する必要がある。
本稿では,不均一な低ランクモデルをクライアントに分散し,それらをグローバルなフルランクモデルに集約する,新しいフェデレーションモデル圧縮フレームワークであるFedHMを提案する。
我々のソリューションは、計算複雑性の異なる異種局所モデルの訓練を可能にし、単一の大域的モデルを集約する。
論文 参考訳(メタデータ) (2021-11-29T16:11:09Z) - Rethinking Architecture Design for Tackling Data Heterogeneity in
Federated Learning [53.73083199055093]
注意に基づくアーキテクチャ(例えばTransformers)は、分散シフトに対してかなり堅牢であることを示す。
我々の実験は、畳み込みネットワークをトランスフォーマーに置き換えることによって、過去のデバイスを壊滅的に忘れることを大幅に減らせることを示した。
論文 参考訳(メタデータ) (2021-06-10T21:04:18Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。