論文の概要: A review: Deep learning for medical image segmentation using
multi-modality fusion
- arxiv url: http://arxiv.org/abs/2004.10664v2
- Date: Thu, 16 Jul 2020 15:33:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:13:45.784529
- Title: A review: Deep learning for medical image segmentation using
multi-modality fusion
- Title(参考訳): マルチモダリティ融合を用いた医用画像分割のための深層学習
- Authors: Tongxue Zhou, Su Ruan, St\'ephane Canu
- Abstract要約: マルチモダリティは、ターゲットについてのマルチ情報を提供することができるため、医用画像に広く用いられている。
ディープラーニングベースのアプローチでは、画像分類、セグメンテーション、オブジェクト検出、トラッキングタスクにおける最先端のパフォーマンスが提示されている。
本稿では,マルチモーダルな医用画像分割作業における深層学習に基づくアプローチの概要について述べる。
- 参考スコア(独自算出の注目度): 4.4259821861544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-modality is widely used in medical imaging, because it can provide
multiinformation about a target (tumor, organ or tissue). Segmentation using
multimodality consists of fusing multi-information to improve the segmentation.
Recently, deep learning-based approaches have presented the state-of-the-art
performance in image classification, segmentation, object detection and
tracking tasks. Due to their self-learning and generalization ability over
large amounts of data, deep learning recently has also gained great interest in
multi-modal medical image segmentation. In this paper, we give an overview of
deep learning-based approaches for multi-modal medical image segmentation task.
Firstly, we introduce the general principle of deep learning and multi-modal
medical image segmentation. Secondly, we present different deep learning
network architectures, then analyze their fusion strategies and compare their
results. The earlier fusion is commonly used, since it's simple and it focuses
on the subsequent segmentation network architecture. However, the later fusion
gives more attention on fusion strategy to learn the complex relationship
between different modalities. In general, compared to the earlier fusion, the
later fusion can give more accurate result if the fusion method is effective
enough. We also discuss some common problems in medical image segmentation.
Finally, we summarize and provide some perspectives on the future research.
- Abstract(参考訳): マルチモダリティは、標的(腫瘍、臓器、組織)に関するマルチ情報を提供することができるため、医用画像に広く用いられている。
マルチモーダルを用いたセグメンテーションは、セグメンテーションを改善するために複数の情報を融合する。
近年, 画像分類, セグメンテーション, 物体検出, 追跡タスクにおいて, ディープラーニングに基づくアプローチが最先端の性能を示した。
大量のデータに対する自己学習と一般化能力により、近年、深層学習はマルチモーダルな医療画像セグメンテーションにも大きな関心を集めている。
本稿では,マルチモーダル医用画像セグメンテーションタスクのための深層学習に基づくアプローチの概要を示す。
まず,深層学習とマルチモーダル医用画像セグメンテーションの一般原理を紹介する。
次に、異なるディープラーニングネットワークアーキテクチャを示し、その融合戦略を分析し、その結果を比較する。
初期の融合は単純で、後のセグメンテーションネットワークアーキテクチャに重点を置いているため、一般的に使われている。
しかし、後の融合は、異なるモダリティ間の複雑な関係を学ぶための核融合戦略にさらに注意を向ける。
一般に、初期の核融合と比較して、核融合法が十分に有効であれば、後者の核融合はより正確な結果が得られる。
また, 医用画像分割の問題点についても考察する。
最後に,今後の研究の展望について概説する。
関連論文リスト
- Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - An Attention-based Multi-Scale Feature Learning Network for Multimodal
Medical Image Fusion [24.415389503712596]
マルチモーダル医療画像は、医師が診断する患者についての豊富な情報を提供する可能性がある。
画像融合技術は、マルチモーダル画像からの補完情報を単一の画像に合成することができる。
医用画像融合タスクのための新しいDilated Residual Attention Networkを提案する。
論文 参考訳(メタデータ) (2022-12-09T04:19:43Z) - Multimodal Information Fusion for Glaucoma and DR Classification [1.5616442980374279]
複数の情報源からの情報を組み合わせることで、臨床医はより正確な判断をすることができる。
本稿では,網膜解析の課題を解決するために,ディープラーニングに基づく3つのマルチモーダル情報融合戦略について検討する。
論文 参考訳(メタデータ) (2022-09-02T12:19:03Z) - Knowledge distillation from multi-modal to mono-modal segmentation
networks [13.213798509506272]
学習したマルチモーダルネットワーク(教師)からモノモーダルネットワーク(学生)へ知識を伝達するフレームワークであるKD-Netを提案する。
学生ネットワークは教師から効果的に学習し、セグメンテーションの精度で常にベースラインのモノモーダルネットワークより優れていることを示す。
論文 参考訳(メタデータ) (2021-06-17T14:46:57Z) - A Multi-View Dynamic Fusion Framework: How to Improve the Multimodal
Brain Tumor Segmentation from Multi-Views? [5.793853101758628]
本稿では,脳腫瘍セグメンテーションの性能向上を目的としたマルチビューダイナミックフュージョンフレームワークを提案する。
BRATS 2015とBRATS 2018で提案されたフレームワークを評価することで、マルチビューからの融合結果が単一ビューからのセグメンテーション結果よりも優れたパフォーマンスを達成できることが分かります。
論文 参考訳(メタデータ) (2020-12-21T09:45:23Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - w-Net: Dual Supervised Medical Image Segmentation Model with
Multi-Dimensional Attention and Cascade Multi-Scale Convolution [47.56835064059436]
医療画像中の小物体の正確なセグメンテーションを予測するために, カスケード型マルチスケール畳み込みを用いた多次元アテンションセグメンテーションモデルを提案する。
提案手法は, KiTS19, Decathlon-10 の Pancreas CT, MICCAI 2018 LiTS Challenge の3つのデータセットを用いて評価した。
論文 参考訳(メタデータ) (2020-11-15T13:54:22Z) - Towards Cross-modality Medical Image Segmentation with Online Mutual
Knowledge Distillation [71.89867233426597]
本稿では,あるモダリティから学習した事前知識を活用し,別のモダリティにおけるセグメンテーション性能を向上させることを目的とする。
モーダル共有知識を徹底的に活用する新しい相互知識蒸留法を提案する。
MMWHS 2017, MMWHS 2017 を用いた多クラス心筋セグメンテーション実験の結果, CT セグメンテーションに大きな改善が得られた。
論文 参考訳(メタデータ) (2020-10-04T10:25:13Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。