論文の概要: One Network to Solve Them All: A Sequential Multi-Task Joint Learning
Network Framework for MR Imaging Pipeline
- arxiv url: http://arxiv.org/abs/2105.06653v1
- Date: Fri, 14 May 2021 05:55:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 12:35:38.507534
- Title: One Network to Solve Them All: A Sequential Multi-Task Joint Learning
Network Framework for MR Imaging Pipeline
- Title(参考訳): すべてを解決するための1つのネットワーク:MRイメージングパイプラインのための連続マルチタスク共同学習ネットワークフレームワーク
- Authors: Zhiwen Wang, Wenjun Xia, Zexin Lu, Yongqiang Huang, Yan Liu, Hu Chen,
Jiliu Zhou, and Yi Zhang
- Abstract要約: 組み合わせたエンドツーエンドのパイプラインを訓練するために、連続的なマルチタスク共同学習ネットワークモデルが提案される。
提案手法は,再構成とセグメント化の両面から,他のSOTA手法よりも優れた性能を示すMBBデータセット上で検証されている。
- 参考スコア(独自算出の注目度): 12.684219884940056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Magnetic resonance imaging (MRI) acquisition, reconstruction, and
segmentation are usually processed independently in the conventional practice
of MRI workflow. It is easy to notice that there are significant relevances
among these tasks and this procedure artificially cuts off these potential
connections, which may lead to losing clinically important information for the
final diagnosis. To involve these potential relations for further performance
improvement, a sequential multi-task joint learning network model is proposed
to train a combined end-to-end pipeline in a differentiable way, aiming at
exploring the mutual influence among those tasks simultaneously. Our design
consists of three cascaded modules: 1) deep sampling pattern learning module
optimizes the $k$-space sampling pattern with predetermined sampling rate; 2)
deep reconstruction module is dedicated to reconstructing MR images from the
undersampled data using the learned sampling pattern; 3) deep segmentation
module encodes MR images reconstructed from the previous module to segment the
interested tissues. The proposed model retrieves the latently interactive and
cyclic relations among those tasks, from which each task will be mutually
beneficial. The proposed framework is verified on MRB dataset, which achieves
superior performance on other SOTA methods in terms of both reconstruction and
segmentation.
- Abstract(参考訳): 磁気共鳴画像(MRI)の取得、再構成、セグメント化は通常、MRIワークフローの慣行において独立に処理される。
これらの課題には重大な関連性があることに気付くことは容易であり、この手順はこれらの潜在的な接続を人工的に遮断し、最終診断において臨床的に重要な情報が失われる可能性がある。
これらの潜在的な関係をさらなる性能向上に結び付けるため、連続的なマルチタスク共同学習ネットワークモデルを提案し、これらのタスク間の相互影響を同時に探求することを目的として、複合エンドツーエンドパイプラインを異なる方法で訓練する。
1)深部サンプリングパターン学習モジュールは,所定のサンプリングレートで$k$空間サンプリングパターンを最適化する;2)深部再構成モジュールは,学習したサンプリングパターンを用いてアンダーサンプルデータからMRイメージを再構成する;3)深部分割モジュールは,前のモジュールから再構成したMR画像を符号化し,興味のある組織を分割する。
提案モデルでは,各タスクが相互に有益となるような,対話的かつ循環的なタスク間の関係を抽出する。
提案手法は,再構成とセグメント化の両面から,他のSOTA手法よりも優れた性能を示すMBBデータセット上で検証されている。
関連論文リスト
- A Plug-and-Play Method for Guided Multi-contrast MRI Reconstruction based on Content/Style Modeling [1.1622133377827824]
誘導再建のためのモジュラー2段階手法を提案する。
放射線学的な課題として、MUNITは診断品質における臨床再建よりも33.3%の加速を可能にした。
論文 参考訳(メタデータ) (2024-09-20T13:08:51Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - Deep Unfolding Network with Spatial Alignment for multi-modal MRI
reconstruction [17.41293135114323]
多モードMRI(Multi-modal Magnetic Resonance Imaging)は相補的な診断情報を提供するが、長い走査時間によっていくつかのモダリティが制限される。
取得過程全体を高速化するため、高アンサンプされたk空間データから他の完全サンプリングされた参照モダリティへのMRI再構成は効率的な解である。
モーダリティ間のミスアライメントを考慮に入れた既存のディープラーニングベースの手法は、パフォーマンスが向上するが、しかしながら2つの主要な共通制限を共有している。
論文 参考訳(メタデータ) (2023-12-28T13:02:16Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Feature Decoupling-Recycling Network for Fast Interactive Segmentation [79.22497777645806]
近年のインタラクティブセグメンテーション手法では,入力としてソースイメージ,ユーザガイダンス,従来予測されていたマスクを反復的に取り込んでいる。
本稿では,本質的な相違点に基づいてモデリングコンポーネントを分離するFDRN(Feature Decoupling-Recycling Network)を提案する。
論文 参考訳(メタデータ) (2023-08-07T12:26:34Z) - Cross-Stitched Multi-task Dual Recursive Networks for Unified Single
Image Deraining and Desnowing [70.24489870383027]
本稿では,統合デライニングとデリーディングを対象とするマルチタスク統合デュアル再帰ネットワーク(CMUDRN)モデルを提案する。
提案モデルは,2つの別々のDual Recursive Network(DRN)モデル間でマルチタスク学習を可能にするクロススティッチユニットを利用する。
論文 参考訳(メタデータ) (2022-11-15T16:44:53Z) - SelfCoLearn: Self-supervised collaborative learning for accelerating
dynamic MR imaging [15.575332712603172]
本稿では, アンダーサンプされたk空間データから, 動的MR画像の正確な再構成を行うための自己教師付き協調学習フレームワーク(SelfCoLearn)を提案する。
提案フレームワークは,2つのネットワーク協調学習,データ拡張のアンサンプ化,特別に設計された協調学習損失という,3つの重要なコンポーネントを備える。
その結果,本手法は,アンダーサンプされたk空間データから,本質的,本質的表現を抽出する能力を持つことがわかった。
論文 参考訳(メタデータ) (2022-08-08T04:01:26Z) - End-to-End Sequential Sampling and Reconstruction for MR Imaging [37.29958197193658]
本稿では,再建戦略と並行して逐次サンプリングポリシを学習するフレームワークを提案する。
提案手法は, 試験試料の96.96%において, 最新のk-空間サンプリングベースラインを上回っている。
論文 参考訳(メタデータ) (2021-05-13T17:56:18Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Multi-task MR Imaging with Iterative Teacher Forcing and Re-weighted
Deep Learning [14.62432715967572]
我々は,既存のビッグデータから事前知識を学習するための,マルチタスク深層学習手法を開発した。
次に,これらを用いて,アンダーサンプリングしたk空間データからMR再構成とセグメンテーションを同時支援する。
提案手法は,同時的かつ正確なMR再構成とセグメンテーションの促進機能を有することを示す。
論文 参考訳(メタデータ) (2020-11-27T09:08:05Z) - MetricUNet: Synergistic Image- and Voxel-Level Learning for Precise CT
Prostate Segmentation via Online Sampling [66.01558025094333]
本稿では,前立腺領域を高速に局在させる第1段階と,前立腺領域を正確に区分する第2段階の2段階のフレームワークを提案する。
マルチタスクネットワークにおけるボクセルワイドサンプリングによる新しいオンラインメトリック学習モジュールを提案する。
本手法は,従来のクロスエントロピー学習法やDice損失学習法と比較して,より代表的なボクセルレベルの特徴を効果的に学習することができる。
論文 参考訳(メタデータ) (2020-05-15T10:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。