論文の概要: United adversarial learning for liver tumor segmentation and detection
of multi-modality non-contrast MRI
- arxiv url: http://arxiv.org/abs/2201.02629v1
- Date: Fri, 7 Jan 2022 18:54:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 13:49:52.444035
- Title: United adversarial learning for liver tumor segmentation and detection
of multi-modality non-contrast MRI
- Title(参考訳): 肝腫瘍の分節化とマルチモダリティ非コントラストmriの同時学習
- Authors: Jianfeng Zhao, Dengwang Li, and Shuo Li
- Abstract要約: 多モードNCMRIを用いた肝腫瘍の同時切除・検出のための統合対位学習フレームワーク(UAL)を提案する。
UALはまず、マルチビュー認識エンコーダを使用して、肝腫瘍のセグメンテーションと検出のための多モードNCMRI情報を抽出する。
パディングによる座標共有機構は,分割と検出のマルチタスクを統合し,複数のタスクを一つの識別器で組み合わせた対角学習を実現する。
- 参考スコア(独自算出の注目度): 5.857654010519764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simultaneous segmentation and detection of liver tumors (hemangioma and
hepatocellular carcinoma (HCC)) by using multi-modality non-contrast magnetic
resonance imaging (NCMRI) are crucial for the clinical diagnosis. However, it
is still a challenging task due to: (1) the HCC information on NCMRI is
invisible or insufficient makes extraction of liver tumors feature difficult;
(2) diverse imaging characteristics in multi-modality NCMRI causes feature
fusion and selection difficult; (3) no specific information between hemangioma
and HCC on NCMRI cause liver tumors detection difficult. In this study, we
propose a united adversarial learning framework (UAL) for simultaneous liver
tumors segmentation and detection using multi-modality NCMRI. The UAL first
utilizes a multi-view aware encoder to extract multi-modality NCMRI information
for liver tumor segmentation and detection. In this encoder, a novel edge
dissimilarity feature pyramid module is designed to facilitate the
complementary multi-modality feature extraction. Second, the newly designed
fusion and selection channel is used to fuse the multi-modality feature and
make the decision of the feature selection. Then, the proposed mechanism of
coordinate sharing with padding integrates the multi-task of segmentation and
detection so that it enables multi-task to perform united adversarial learning
in one discriminator. Lastly, an innovative multi-phase radiomics guided
discriminator exploits the clear and specific tumor information to improve the
multi-task performance via the adversarial learning strategy. The UAL is
validated in corresponding multi-modality NCMRI (i.e. T1FS pre-contrast MRI,
T2FS MRI, and DWI) and three phases contrast-enhanced MRI of 255 clinical
subjects. The experiments show that UAL has great potential in the clinical
diagnosis of liver tumors.
- Abstract(参考訳): multi-modality non-contrast magnetic resonance imaging (ncmri) による肝腫瘍(肝細胞腫,肝細胞癌)の同時分画と検出が臨床診断に重要である。
しかし,(1)肝腫瘍のhcc情報は見えないか不十分か,(2)多変質性ncmriの多様な画像特徴が特徴的融合と選択を惹起する,(3)肝腫瘍の検出を困難にする,などの課題が残されている。
本研究では,マルチモーダルNCMRIを用いた肝腫瘍の同時切除・検出のための統合対位学習フレームワーク (UAL) を提案する。
UALはまず、マルチビュー認識エンコーダを使用して、肝腫瘍のセグメンテーションと検出のための多モードNCMRI情報を抽出する。
このエンコーダでは、相補的な多モード特徴抽出を容易にするために、新しいエッジ異方性特徴ピラミッドモジュールが設計されている。
第二に、新しく設計された融合選択チャネルは、マルチモーダル特徴を融合させ、特徴選択を決定するために使用される。
そして,パディングによる座標共有機構は,分割と検出のマルチタスクを統合し,複数のタスクを一つの識別器で組み合わせた対角学習を実現する。
最後に、革新的多相放射能誘導判別器は、明瞭かつ特定な腫瘍情報を利用して、逆学習戦略によるマルチタスク性能を向上させる。
NCMRI(T1FS pre-contrast MRI, T2FS MRI, DWI)と3段階の造影MRIにおいて, 255症例の造影MRIが有効であった。
実験の結果, ualは肝腫瘍の診断において有意な有用性を示した。
関連論文リスト
- Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - Anisotropic Hybrid Networks for liver tumor segmentation with
uncertainty quantification [0.5799785223420274]
肝腫瘍の重荷は重要であり、がん死亡の4番目の主要な原因としてランク付けされている。
造影MRI(CE-MRI)による肝腫瘍および肝腫瘍の描出について検討した。
課題は、利用可能なトレーニングデータの欠如と、画像解像度とMRIシーケンスの点で高いばらつきから生じる。
論文 参考訳(メタデータ) (2023-08-23T07:30:16Z) - Towards multi-modal anatomical landmark detection for ultrasound-guided
brain tumor resection with contrastive learning [3.491999371287298]
医用スキャン間の同種解剖学的ランドマークは、画像登録品質の定量的評価に有効である。
神経外科におけるMRIと術中USスキャンの対応するランドマークを検出するための,新しいコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-26T21:55:40Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - SpineOne: A One-Stage Detection Framework for Degenerative Discs and
Vertebrae [54.751251046196494]
SpineOneと呼ばれる一段階検出フレームワークを提案し、MRIスライスから変性椎骨と椎骨を同時に局在化・分類する。
1)キーポイントの局所化と分類を促進するためのキーポイント・ヒートマップの新しい設計、2)ディスクと脊椎の表現をよりよく区別するためのアテンション・モジュールの使用、3)後期訓練段階における複数の学習目標を関連付けるための新しい勾配誘導客観的アソシエーション機構。
論文 参考訳(メタデータ) (2021-10-28T12:59:06Z) - Modality-aware Mutual Learning for Multi-modal Medical Image
Segmentation [12.308579499188921]
肝臓がんは世界中で最も多いがんの1つである。
本稿では,マルチモーダルCT画像の統合による肝腫瘍切除の自動化に焦点をあてる。
そこで本研究では,肝腫瘍セグメント化を効果的かつ堅牢にするための新たな相互学習(ML)戦略を提案する。
論文 参考訳(メタデータ) (2021-07-21T02:24:31Z) - Learned super resolution ultrasound for improved breast lesion
characterization [52.77024349608834]
超高分解能超音波局在顕微鏡は毛細血管レベルでの微小血管のイメージングを可能にする。
この作業では、これらの課題に対処するために、信号構造を効果的に活用するディープニューラルネットワークアーキテクチャを使用します。
トレーニングしたネットワークを利用することで,従来のPSF知識を必要とせず,UCAの分離性も必要とせず,短時間で微小血管構造を復元する。
論文 参考訳(メタデータ) (2021-07-12T09:04:20Z) - Soft Tissue Sarcoma Co-Segmentation in Combined MRI and PET/CT Data [2.2515303891664358]
マルチモーダル医用画像における腫瘍のセグメンテーションは, 深層学習の手法に傾きつつある。
本稿では,モダリティ固有のエンコーダとデコーダのブランチによるマルチモーダル特徴学習を実現する,同時分離手法を提案する。
MRI(T1およびT2配列)とPET/CTスキャンを併用した公衆軟部肉腫データに対するアプローチの有効性を示した。
論文 参考訳(メタデータ) (2020-08-28T09:15:42Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。