論文の概要: Adipose Tissue Segmentation in Unlabeled Abdomen MRI using Cross
Modality Domain Adaptation
- arxiv url: http://arxiv.org/abs/2005.05761v1
- Date: Mon, 11 May 2020 17:41:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 20:56:28.732710
- Title: Adipose Tissue Segmentation in Unlabeled Abdomen MRI using Cross
Modality Domain Adaptation
- Title(参考訳): クロスモーダルドメイン適応を用いた非標識腹部MRIにおける脂肪組織分画
- Authors: Samira Masoudi, Syed M. Anwar, Stephanie A. Harmon, Peter L. Choyke,
Baris Turkbey, Ulas Bagci
- Abstract要約: 腹部脂肪定量は、この領域内に複数の重要な臓器があるため重要である。
本研究では,MRI画像から脂肪組織を自動的に定量化するディープラーニング手法に基づくアルゴリズムを提案する。
本手法はMRスキャンの教師付きラベル付けを必要としないが,パイプライン構築にはC-GAN (Cycle Generative Adversarial Network) を用いる。
- 参考スコア(独自算出の注目度): 4.677846923899843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Abdominal fat quantification is critical since multiple vital organs are
located within this region. Although computed tomography (CT) is a highly
sensitive modality to segment body fat, it involves ionizing radiations which
makes magnetic resonance imaging (MRI) a preferable alternative for this
purpose. Additionally, the superior soft tissue contrast in MRI could lead to
more accurate results. Yet, it is highly labor intensive to segment fat in MRI
scans. In this study, we propose an algorithm based on deep learning
technique(s) to automatically quantify fat tissue from MR images through a
cross modality adaptation. Our method does not require supervised labeling of
MR scans, instead, we utilize a cycle generative adversarial network (C-GAN) to
construct a pipeline that transforms the existing MR scans into their
equivalent synthetic CT (s-CT) images where fat segmentation is relatively
easier due to the descriptive nature of HU (hounsfield unit) in CT images. The
fat segmentation results for MRI scans were evaluated by expert radiologist.
Qualitative evaluation of our segmentation results shows average success score
of 3.80/5 and 4.54/5 for visceral and subcutaneous fat segmentation in MR
images.
- Abstract(参考訳): 腹部脂肪定量は、この領域内に複数の重要な臓器があるため重要である。
CT(Computed tomography)は体脂肪分画に対する高感度なモダリティであるが、この目的のためには磁気共鳴イメージング(MRI)が好ましい代替手段となる電離放射線を含んでいる。
さらに、MRIの優れた軟組織コントラストは、より正確な結果をもたらす可能性がある。
しかし、MRIスキャンでは、脂肪分画に非常に集中している。
本研究では,mr画像から脂肪組織を自動的に定量化する深層学習手法(s)に基づくアルゴリズムを提案する。
本手法はMRスキャンの教師付きラベル付けを必要としないが,既存のMRスキャンをCT画像中のHU(ハウンズフィールド単位)の記述的性質により,脂肪分画が比較的容易な合成CT(s-CT)画像に変換するパイプラインを構築するために,C-GAN (Cycle Generative Adversarial Network) を利用する。
MRI画像の脂肪分画は専門医により評価された。
MR画像における内皮下脂肪分画の平均成功率は3.80/5,4.54/5であった。
関連論文リスト
- Enhanced Synthetic MRI Generation from CT Scans Using CycleGAN with
Feature Extraction [3.2088888904556123]
合成MRI画像を用いたCTスキャンによるモノモーダル登録の高速化手法を提案する。
提案手法は有望な結果を示し,いくつかの最先端手法より優れていた。
論文 参考訳(メタデータ) (2023-10-31T16:39:56Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - Single Slice Thigh CT Muscle Group Segmentation with Domain Adaptation
and Self-Training [19.86796625044402]
3次元MRから1枚のCTスライスにラベルを転送する自己学習による教師なし領域適応パイプラインを提案する。
152例において,全筋群の平均Diceは0.888(0.041)であった。
論文 参考訳(メタデータ) (2022-11-30T19:04:17Z) - Weakly-supervised Biomechanically-constrained CT/MRI Registration of the
Spine [72.85011943179894]
本稿では,各脊椎の剛性と容積を保存し,登録精度を最大化しながら,弱教師付き深層学習フレームワークを提案する。
また,CTにおける椎体自動分節化はMRIと対比してより正確な結果をもたらすため,CTラベルマップのみに依存するよう,これらの損失を特に設計する。
以上の結果から, 解剖学的認識による損失の増大は, 精度を維持しつつも, 推測変換の妥当性を高めることが示唆された。
論文 参考訳(メタデータ) (2022-05-16T10:59:55Z) - Unsupervised-learning-based method for chest MRI-CT transformation using
structure constrained unsupervised generative attention networks [0.0]
PET/MRIスキャナは、PETによる代謝情報の同時取得と、MRIを用いた形態情報の取得を容易にする。
PET/MRIは、ガンマ線減衰情報とMRIとの直接的関係がないため、MRIから減衰補正マップを生成する必要がある。
本稿では,非対位画像の変換が可能なGAN(Generative Adversarial Network)に,モダリティ非依存的近傍記述子(MIND)を用いた構造制約を加えることにより,人間のアノテーションを使わずに解剖学的構造変化を最小限に抑える手段を提案する。
論文 参考訳(メタデータ) (2021-06-16T05:22:27Z) - ShuffleUNet: Super resolution of diffusion-weighted MRIs using deep
learning [47.68307909984442]
SISR(Single Image Super-Resolution)は、1つの低解像度入力画像から高解像度(HR)の詳細を得る技術である。
ディープラーニングは、大きなデータセットから事前知識を抽出し、低解像度の画像から優れたMRI画像を生成します。
論文 参考訳(メタデータ) (2021-02-25T14:52:23Z) - Dual-cycle Constrained Bijective VAE-GAN For Tagged-to-Cine Magnetic
Resonance Image Synthesis [11.697141493937021]
VAE-GANによるタグ付け-Cine MR画像合成手法を提案する。
このフレームワークは1,768,416,および1,560個の被検非依存のタグ付きMRIとシネMRIを用いて,訓練,検証,および試験を行った。
論文 参考訳(メタデータ) (2021-01-14T03:27:16Z) - High Tissue Contrast MRI Synthesis Using Multi-Stage Attention-GAN for
Glioma Segmentation [25.408175460840802]
本稿では, 合成高組織コントラスト(HTC)画像を生成するために, 画像から画像への変換技術の有用性を示す。
我々は,組織内部のコントラストを高めるために,注意機構を有する新しいサイクル生成対向ネットワーク(CycleGAN)を採用した。
グリオーマ腫瘍を含む脳MRスキャンにおけるHTC像の合成法について述べる。
論文 参考訳(メタデータ) (2020-06-09T03:21:30Z) - Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on
2.5 D Residual Squeeze and Excitation Deep Learning Model [55.09533240649176]
本研究の目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく正確な自動セグメンテーション法を開発することである。
合計320回の試験(平均6回の試験)と28回の試験が行われた。
ベーススライスとミドルスライスにおけるアンサンブルモデルの性能解析は, サーバ内調査と同等であり, アトピーススライスではわずかに低かった。
論文 参考訳(メタデータ) (2020-05-27T20:44:38Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。