論文の概要: MOST: MR reconstruction Optimization for multiple downStream Tasks via continual learning
- arxiv url: http://arxiv.org/abs/2409.10394v1
- Date: Mon, 16 Sep 2024 15:31:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 15:00:57.278732
- Title: MOST: MR reconstruction Optimization for multiple downStream Tasks via continual learning
- Title(参考訳): MOST:連続学習による複数ダウンストリームタスクのMR再構成最適化
- Authors: Hwihun Jeong, Se Young Chun, Jongho Lee,
- Abstract要約: 個別に訓練された再構成ネットワークと下流タスクネットワークをカスケーディングすることで、性能劣化がもたらされることが示されている。
この最適化を順次導入した複数のダウンストリームタスクに拡張し,複数のダウンストリームタスクに対して単一のMR再構成ネットワークを最適化できることを実証する。
- 参考スコア(独自算出の注目度): 12.0749219807816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning-based Magnetic Resonance (MR) reconstruction methods have focused on generating high-quality images but they often overlook the impact on downstream tasks (e.g., segmentation) that utilize the reconstructed images. Cascading separately trained reconstruction network and downstream task network has been shown to introduce performance degradation due to error propagation and domain gaps between training datasets. To mitigate this issue, downstream task-oriented reconstruction optimization has been proposed for a single downstream task. Expanding this optimization to multi-task scenarios is not straightforward. In this work, we extended this optimization to sequentially introduced multiple downstream tasks and demonstrated that a single MR reconstruction network can be optimized for multiple downstream tasks by deploying continual learning (MOST). MOST integrated techniques from replay-based continual learning and image-guided loss to overcome catastrophic forgetting. Comparative experiments demonstrated that MOST outperformed a reconstruction network without finetuning, a reconstruction network with na\"ive finetuning, and conventional continual learning methods. This advancement empowers the application of a single MR reconstruction network for multiple downstream tasks. The source code is available at: https://github.com/SNU-LIST/MOST
- Abstract(参考訳): 深層学習に基づく磁気共鳴(MR)再構成法は高品質な画像を生成することに重点を置いているが、再構成した画像を利用する下流タスク(例えばセグメンテーション)への影響を見落としていることが多い。
個別にトレーニングされた再構成ネットワークと下流タスクネットワークをカスケーディングすることで、エラーの伝搬とトレーニングデータセット間のドメインギャップによるパフォーマンス劣化が発生することが示されている。
この問題を軽減するために、下流タスク指向の再構築最適化が1つの下流タスクに対して提案されている。
この最適化をマルチタスクシナリオに拡張するのは簡単ではありません。
本研究では、この最適化を順次導入した複数の下流タスクに拡張し、連続学習(MOST)を配置することにより、複数の下流タスクに対して単一のMR再構成ネットワークを最適化できることを実証した。
MOSTはリプレイベースの連続学習と画像誘導損失の技術を統合し、破滅的な忘れを克服した。
比較実験により、MOSTは微調整なしの再構成ネットワーク、na\\型微調整付き再構成ネットワーク、従来の連続学習手法よりも優れていた。
この進歩により、複数の下流タスクに単一のMR再構成ネットワークを適用することができる。
ソースコードは、https://github.com/SNU-LIST/MOSTで入手できる。
関連論文リスト
- AdaIR: Exploiting Underlying Similarities of Image Restoration Tasks with Adapters [57.62742271140852]
AdaIRは、パフォーマンスを犠牲にすることなく、低コストで効率的なトレーニングを可能にする新しいフレームワークである。
AdaIRは軽量でタスク固有のモジュールのトレーニングのみを必要とし、より効率的なストレージとトレーニング体制を確保する。
論文 参考訳(メタデータ) (2024-04-17T15:31:06Z) - A Lightweight Recurrent Learning Network for Sustainable Compressed
Sensing [27.964167481909588]
持続可能なCSシステムを実現するために,繰り返し学習に基づく軽量だが効果的な深層ニューラルネットワークを提案する。
提案手法は,既存のCSアルゴリズムよりも再現性が高い。
論文 参考訳(メタデータ) (2023-04-23T14:54:15Z) - ClassPruning: Speed Up Image Restoration Networks by Dynamic N:M Pruning [25.371802581339576]
ClassPruningは、パフォーマンスを維持しながら、既存のメソッドが約40%のFLOPを節約するのに役立つ。
本稿では,トレーニングの安定化と性能向上のために,新たなトレーニング戦略と2つの新たな損失条件を提案する。
論文 参考訳(メタデータ) (2022-11-10T11:14:15Z) - Towards performant and reliable undersampled MR reconstruction via
diffusion model sampling [67.73698021297022]
DiffuseReconは拡散モデルに基づく新しいMR再構成法である。
観測された信号に基づいて生成過程を導出する。
特定の加速因子に関する追加の訓練は必要としない。
論文 参考訳(メタデータ) (2022-03-08T02:25:38Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - An End-To-End-Trainable Iterative Network Architecture for Accelerated
Radial Multi-Coil 2D Cine MR Image Reconstruction [4.233498905999929]
我々は,複数のレシーバコイルを用いた加速2次元放射状シネMRIの画像再構成のためのCNNアーキテクチャを提案する。
提案手法を学習的・非学習的正規化手法と比較し,提案手法を他のよく知られた再構築手法と比較する。
論文 参考訳(メタデータ) (2021-02-01T11:42:04Z) - Multi-task MR Imaging with Iterative Teacher Forcing and Re-weighted
Deep Learning [14.62432715967572]
我々は,既存のビッグデータから事前知識を学習するための,マルチタスク深層学習手法を開発した。
次に,これらを用いて,アンダーサンプリングしたk空間データからMR再構成とセグメンテーションを同時支援する。
提案手法は,同時的かつ正確なMR再構成とセグメンテーションの促進機能を有することを示す。
論文 参考訳(メタデータ) (2020-11-27T09:08:05Z) - A Deep-Unfolded Reference-Based RPCA Network For Video
Foreground-Background Separation [86.35434065681925]
本稿では,ロバスト主成分分析(RPCA)問題に対するディープアンフォールディングに基づくネットワーク設計を提案する。
既存の設計とは異なり,本手法は連続するビデオフレームのスパース表現間の時間的相関をモデル化することに焦点を当てている。
移動MNISTデータセットを用いた実験により、提案したネットワークは、ビデオフォアグラウンドとバックグラウンドの分離作業において、最近提案された最先端のRPCAネットワークより優れていることが示された。
論文 参考訳(メタデータ) (2020-10-02T11:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。