論文の概要: A Multi-View Dynamic Fusion Framework: How to Improve the Multimodal
Brain Tumor Segmentation from Multi-Views?
- arxiv url: http://arxiv.org/abs/2012.11211v1
- Date: Mon, 21 Dec 2020 09:45:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:22:53.583118
- Title: A Multi-View Dynamic Fusion Framework: How to Improve the Multimodal
Brain Tumor Segmentation from Multi-Views?
- Title(参考訳): マルチビューダイナミックフュージョンフレームワーク:マルチビューからマルチモーダル脳腫瘍の分離を改善するには?
- Authors: Yi Ding, Wei Zheng, Guozheng Wu, Ji Geng, Mingsheng Cao, Zhiguang Qin
- Abstract要約: 本稿では,脳腫瘍セグメンテーションの性能向上を目的としたマルチビューダイナミックフュージョンフレームワークを提案する。
BRATS 2015とBRATS 2018で提案されたフレームワークを評価することで、マルチビューからの融合結果が単一ビューからのセグメンテーション結果よりも優れたパフォーマンスを達成できることが分かります。
- 参考スコア(独自算出の注目度): 5.793853101758628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When diagnosing the brain tumor, doctors usually make a diagnosis by
observing multimodal brain images from the axial view, the coronal view and the
sagittal view, respectively. And then they make a comprehensive decision to
confirm the brain tumor based on the information obtained from multi-views.
Inspired by this diagnosing process and in order to further utilize the 3D
information hidden in the dataset, this paper proposes a multi-view dynamic
fusion framework to improve the performance of brain tumor segmentation. The
proposed framework consists of 1) a multi-view deep neural network
architecture, which represents multi learning networks for segmenting the brain
tumor from different views and each deep neural network corresponds to
multi-modal brain images from one single view and 2) the dynamic decision
fusion method, which is mainly used to fuse segmentation results from
multi-views as an integrate one and two different fusion methods, the voting
method and the weighted averaging method, have been adopted to evaluate the
fusing process. Moreover, the multi-view fusion loss, which consists of the
segmentation loss, the transition loss and the decision loss, is proposed to
facilitate the training process of multi-view learning networks so as to keep
the consistency of appearance and space, not only in the process of fusing
segmentation results, but also in the process of training the learning network.
\par By evaluating the proposed framework on BRATS 2015 and BRATS 2018, it can
be found that the fusion results from multi-views achieve a better performance
than the segmentation result from the single view and the effectiveness of
proposed multi-view fusion loss has also been proved. Moreover, the proposed
framework achieves a better segmentation performance and a higher efficiency
compared to other counterpart methods.
- Abstract(参考訳): 脳腫瘍を診断する場合、医師は、軸線、コロナビュー、矢状ビューから多変量脳画像を観察して診断する。
そして、マルチビューから得られた情報に基づいて脳腫瘍の診断を包括的に決定する。
この診断プロセスに触発され、データセットに隠された3d情報をさらに活用するために、脳腫瘍の分節性能を向上させるための多視点動的融合フレームワークを提案する。
The proposed framework consists of 1) a multi-view deep neural network architecture, which represents multi learning networks for segmenting the brain tumor from different views and each deep neural network corresponds to multi-modal brain images from one single view and 2) the dynamic decision fusion method, which is mainly used to fuse segmentation results from multi-views as an integrate one and two different fusion methods, the voting method and the weighted averaging method, have been adopted to evaluate the fusing process.
さらに,セグメンテーション損失,遷移損失,決定損失からなる多視点融合損失は,セグメンテーション結果の融合プロセスだけでなく,学習ネットワークのトレーニングプロセスにおいても,外観と空間の整合性を維持するために,多視点学習ネットワークのトレーニングプロセスを容易にする。
\par BRATS 2015 と BRATS 2018 で提案したフレームワークを評価することで,複数ビューの融合結果が単一ビューのセグメンテーション結果よりも優れた性能を示し,提案した多視点融合損失の有効性も証明されている。
さらに,提案フレームワークは,他の手法と比較してセグメンテーション性能と効率性の向上を実現している。
関連論文リスト
- Evidence fusion with contextual discounting for multi-modality medical
image segmentation [22.77837744216949]
本発明のフレームワークは、エンコーダ・デコーダ特徴抽出モジュールと、各モダリティに対する各ボクセルにおける信念関数を算出する明示的セグメンテーションモジュールと、多モードエビデンス融合モジュールとから構成される。
この方法は脳腫瘍1251例のBraTs 2021データベース上で評価された。
論文 参考訳(メタデータ) (2022-06-23T14:36:50Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Contextual Information Enhanced Convolutional Neural Networks for
Retinal Vessel Segmentation in Color Fundus Images [0.0]
自動網膜血管セグメンテーションシステムは、臨床診断及び眼科研究を効果的に促進することができる。
ディープラーニングベースの手法が提案され、いくつかのカスタマイズされたモジュールが有名なエンコーダデコーダアーキテクチャU-netに統合されている。
その結果,提案手法は先行技術よりも優れ,感性/リコール,F1スコア,MCCの最先端性能を実現している。
論文 参考訳(メタデータ) (2021-03-25T06:10:47Z) - Representation Disentanglement for Multi-modal MR Analysis [15.498244253687337]
近年の研究では、マルチモーダルディープラーニング分析は、画像から解剖学的(形状)およびモダリティ(外観)表現を明示的に切り離すことから恩恵を受けることができることが示唆されている。
対象とモダリティをまたいだ表現の類似性関係を正規化するマージン損失を提案する。
頑健なトレーニングを実現するため,全てのモダリティの画像を符号化する単一モデルの設計のために条件付き畳み込みを導入する。
論文 参考訳(メタデータ) (2021-02-23T02:08:38Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。