論文の概要: A review: Deep learning for medical image segmentation using
multi-modality fusion
- arxiv url: http://arxiv.org/abs/2004.10664v2
- Date: Thu, 16 Jul 2020 15:33:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:13:45.784529
- Title: A review: Deep learning for medical image segmentation using
multi-modality fusion
- Title(参考訳): マルチモダリティ融合を用いた医用画像分割のための深層学習
- Authors: Tongxue Zhou, Su Ruan, St\'ephane Canu
- Abstract要約: マルチモダリティは、ターゲットについてのマルチ情報を提供することができるため、医用画像に広く用いられている。
ディープラーニングベースのアプローチでは、画像分類、セグメンテーション、オブジェクト検出、トラッキングタスクにおける最先端のパフォーマンスが提示されている。
本稿では,マルチモーダルな医用画像分割作業における深層学習に基づくアプローチの概要について述べる。
- 参考スコア(独自算出の注目度): 4.4259821861544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-modality is widely used in medical imaging, because it can provide
multiinformation about a target (tumor, organ or tissue). Segmentation using
multimodality consists of fusing multi-information to improve the segmentation.
Recently, deep learning-based approaches have presented the state-of-the-art
performance in image classification, segmentation, object detection and
tracking tasks. Due to their self-learning and generalization ability over
large amounts of data, deep learning recently has also gained great interest in
multi-modal medical image segmentation. In this paper, we give an overview of
deep learning-based approaches for multi-modal medical image segmentation task.
Firstly, we introduce the general principle of deep learning and multi-modal
medical image segmentation. Secondly, we present different deep learning
network architectures, then analyze their fusion strategies and compare their
results. The earlier fusion is commonly used, since it's simple and it focuses
on the subsequent segmentation network architecture. However, the later fusion
gives more attention on fusion strategy to learn the complex relationship
between different modalities. In general, compared to the earlier fusion, the
later fusion can give more accurate result if the fusion method is effective
enough. We also discuss some common problems in medical image segmentation.
Finally, we summarize and provide some perspectives on the future research.
- Abstract(参考訳): マルチモダリティは、標的(腫瘍、臓器、組織)に関するマルチ情報を提供することができるため、医用画像に広く用いられている。
マルチモーダルを用いたセグメンテーションは、セグメンテーションを改善するために複数の情報を融合する。
近年, 画像分類, セグメンテーション, 物体検出, 追跡タスクにおいて, ディープラーニングに基づくアプローチが最先端の性能を示した。
大量のデータに対する自己学習と一般化能力により、近年、深層学習はマルチモーダルな医療画像セグメンテーションにも大きな関心を集めている。
本稿では,マルチモーダル医用画像セグメンテーションタスクのための深層学習に基づくアプローチの概要を示す。
まず,深層学習とマルチモーダル医用画像セグメンテーションの一般原理を紹介する。
次に、異なるディープラーニングネットワークアーキテクチャを示し、その融合戦略を分析し、その結果を比較する。
初期の融合は単純で、後のセグメンテーションネットワークアーキテクチャに重点を置いているため、一般的に使われている。
しかし、後の融合は、異なるモダリティ間の複雑な関係を学ぶための核融合戦略にさらに注意を向ける。
一般に、初期の核融合と比較して、核融合法が十分に有効であれば、後者の核融合はより正確な結果が得られる。
また, 医用画像分割の問題点についても考察する。
最後に,今後の研究の展望について概説する。
関連論文リスト
- Fuse4Seg: Image-Level Fusion Based Multi-Modality Medical Image Segmentation [13.497613339200184]
現在の機能レベルの融合戦略は、セマンティックな不整合やミスアライメントを引き起こす傾向がある、と我々は主張する。
画像レベルでの融合に基づく新しい医用画像分割法Fuse4Segを提案する。
得られた融合画像は、すべてのモダリティからの情報を正確にアマルガメートするコヒーレントな表現である。
論文 参考訳(メタデータ) (2024-09-16T14:39:04Z) - A review of deep learning-based information fusion techniques for multimodal medical image classification [1.996181818659251]
深層学習に基づくマルチモーダル融合技術は、医用画像分類を改善する強力なツールとして登場した。
本総説では,深層学習に基づく医療分類タスクのためのマルチモーダルフュージョンの開発状況について概説する。
論文 参考訳(メタデータ) (2024-04-23T13:31:18Z) - Medical Image Analysis using Deep Relational Learning [1.8465474345655504]
医用画像セグメンテーションを行うために,特徴間の暗黙的関係情報を効果的にモデル化するコンテキスト対応完全畳み込みネットワークを提案する。
そこで我々は,隣接するフレーム間の空間的関係を学習し,正確な医用画像モザイクを実現するために,新しい階層的ホモグラフィー推定ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T16:10:12Z) - M$^{2}$SNet: Multi-scale in Multi-scale Subtraction Network for Medical
Image Segmentation [73.10707675345253]
医用画像から多様なセグメンテーションを仕上げるマルチスケールサブトラクションネットワーク(M$2$SNet)を提案する。
本手法は,4つの異なる医用画像セグメンテーションタスクの11つのデータセットに対して,異なる評価基準の下で,ほとんどの最先端手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2023-03-20T06:26:49Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - An Attention-based Multi-Scale Feature Learning Network for Multimodal
Medical Image Fusion [24.415389503712596]
マルチモーダル医療画像は、医師が診断する患者についての豊富な情報を提供する可能性がある。
画像融合技術は、マルチモーダル画像からの補完情報を単一の画像に合成することができる。
医用画像融合タスクのための新しいDilated Residual Attention Networkを提案する。
論文 参考訳(メタデータ) (2022-12-09T04:19:43Z) - Multimodal Information Fusion for Glaucoma and DR Classification [1.5616442980374279]
複数の情報源からの情報を組み合わせることで、臨床医はより正確な判断をすることができる。
本稿では,網膜解析の課題を解決するために,ディープラーニングに基づく3つのマルチモーダル情報融合戦略について検討する。
論文 参考訳(メタデータ) (2022-09-02T12:19:03Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Towards Cross-modality Medical Image Segmentation with Online Mutual
Knowledge Distillation [71.89867233426597]
本稿では,あるモダリティから学習した事前知識を活用し,別のモダリティにおけるセグメンテーション性能を向上させることを目的とする。
モーダル共有知識を徹底的に活用する新しい相互知識蒸留法を提案する。
MMWHS 2017, MMWHS 2017 を用いた多クラス心筋セグメンテーション実験の結果, CT セグメンテーションに大きな改善が得られた。
論文 参考訳(メタデータ) (2020-10-04T10:25:13Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。