論文の概要: Modality-Agnostic Learning for Medical Image Segmentation Using
Multi-modality Self-distillation
- arxiv url: http://arxiv.org/abs/2306.03730v1
- Date: Tue, 6 Jun 2023 14:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 15:05:45.888029
- Title: Modality-Agnostic Learning for Medical Image Segmentation Using
Multi-modality Self-distillation
- Title(参考訳): マルチモーダル自己蒸留による医用画像セグメンテーションのモダリティ非依存学習
- Authors: Qisheng He, Nicholas Summerfield, Ming Dong, Carri Glide-Hurst
- Abstract要約: マルチモーダル・セルフディスト・イレレーション(MAG-MS)によるモダリティ非依存学習という新しい枠組みを提案する。
MAG-MSは複数のモダリティの融合から知識を蒸留し、個々のモダリティに対する表現学習を強化する。
ベンチマークデータセットを用いた実験により,MAG-MSの高効率化とセグメンテーション性能の向上が示された。
- 参考スコア(独自算出の注目度): 1.815047691981538
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical image segmentation of tumors and organs at risk is a time-consuming
yet critical process in the clinic that utilizes multi-modality imaging (e.g,
different acquisitions, data types, and sequences) to increase segmentation
precision. In this paper, we propose a novel framework, Modality-Agnostic
learning through Multi-modality Self-dist-illation (MAG-MS), to investigate the
impact of input modalities on medical image segmentation. MAG-MS distills
knowledge from the fusion of multiple modalities and applies it to enhance
representation learning for individual modalities. Thus, it provides a
versatile and efficient approach to handle limited modalities during testing.
Our extensive experiments on benchmark datasets demonstrate the high efficiency
of MAG-MS and its superior segmentation performance than current
state-of-the-art methods. Furthermore, using MAG-MS, we provide valuable
insight and guidance on selecting input modalities for medical image
segmentation tasks.
- Abstract(参考訳): リスクのある腫瘍や臓器の医用画像分割は、マルチモダリティイメージング(例えば、異なる買収、データタイプ、シーケンス)を使用して、セグメンテーションの精度を高めるために、診療所において時間を要するが重要なプロセスである。
本稿では,マルチモダリティ・セルフディスト・イレレーション(mag-ms)によるモダリティ非依存学習という新しい枠組みを提案し,入力モダリティが医用画像のセグメンテーションに与える影響について検討する。
MAG-MSは複数のモーダルの融合から知識を蒸留し、個々のモーダルに対する表現学習を強化する。
したがって、テスト中に限られたモダリティを扱うための汎用的で効率的なアプローチを提供する。
ベンチマークデータセットに関する広範囲な実験により,mag-msの高効率性と,現在の最先端手法よりも優れたセグメンテーション性能を示す。
さらに,mag-msを用いて医用画像分割タスクの入力モダリティ選択に関する洞察とガイダンスを提供する。
関連論文リスト
- Multi-sensor Learning Enables Information Transfer across Different Sensory Data and Augments Multi-modality Imaging [21.769547352111957]
データ駆動型マルチモーダルイメージング(DMI)によるCTとMRIのシナジーイメージングについて検討した。
マルチモダリティ・イメージングにおける特徴,すなわちモダリティ・イントラモダリティ・イントラモダリティの2つの特徴を明らかにし,マルチセンサ・ラーニング(MSL)フレームワークを提案する。
相乗的CT-MRI脳画像撮影によるDMI戦略の有効性について紹介する。
論文 参考訳(メタデータ) (2024-09-28T17:40:54Z) - MIST: A Simple and Scalable End-To-End 3D Medical Imaging Segmentation Framework [1.1608974088441382]
医用イメージングツールキット(MIST)は、深層学習に基づく医用イメージングセグメンテーション手法の一貫性のあるトレーニング、テスト、評価を容易にするように設計されている。
MISTはデータ分析、前処理、評価パイプラインを標準化し、複数のアーキテクチャと損失関数を収容する。
論文 参考訳(メタデータ) (2024-07-31T05:17:31Z) - Modality-Aware and Shift Mixer for Multi-modal Brain Tumor Segmentation [12.094890186803958]
マルチモーダル画像のモダリティ内依存性とモダリティ間依存性を統合した新しいModality Aware and Shift Mixerを提案する。
具体的には,低レベルのモザイク対関係をモデル化するためのニューロイメージング研究に基づいてModality-Awareモジュールを導入し,モザイクパターンを具体化したModality-Shiftモジュールを開発し,高レベルのモザイク間の複雑な関係を自己注意を通して探索する。
論文 参考訳(メタデータ) (2024-03-04T14:21:51Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - Multi-Modal Evaluation Approach for Medical Image Segmentation [4.989480853499916]
本稿では,異なるセグメンテーション手法の有効性を評価するために,新しいマルチモーダル評価(MME)手法を提案する。
本稿では, 検出特性, 境界アライメント, 均一性, 総体積, 相対体積など, 関連性, 解釈可能な新しい特徴を紹介する。
提案するアプローチはオープンソースで,使用することができる。
論文 参考訳(メタデータ) (2023-02-08T15:31:33Z) - Uncertainty-Aware Multi-Parametric Magnetic Resonance Image Information
Fusion for 3D Object Segmentation [12.361668672097753]
拡張された3次元画像セグメンテーションのための情報を完全に活用するために,不確実性を考慮したマルチパラメトリックMR画像特徴融合法を提案する。
提案手法は,既存モデルと比較してセグメンテーション性能が向上する。
論文 参考訳(メタデータ) (2022-11-16T09:16:52Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Cross-Modal Information Maximization for Medical Imaging: CMIM [62.28852442561818]
病院では、同じ情報を異なるモダリティの下で利用できるようにする特定の情報システムにデータがサイロ化される。
これは、テスト時に常に利用できないかもしれない同じ情報の複数のビューを列車で取得し、使用するためのユニークな機会を提供する。
テスト時にモダリティの低下に耐性を持つマルチモーダル入力の優れた表現を学習することで、利用可能なデータを最大限活用する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T20:05:35Z) - Towards Cross-modality Medical Image Segmentation with Online Mutual
Knowledge Distillation [71.89867233426597]
本稿では,あるモダリティから学習した事前知識を活用し,別のモダリティにおけるセグメンテーション性能を向上させることを目的とする。
モーダル共有知識を徹底的に活用する新しい相互知識蒸留法を提案する。
MMWHS 2017, MMWHS 2017 を用いた多クラス心筋セグメンテーション実験の結果, CT セグメンテーションに大きな改善が得られた。
論文 参考訳(メタデータ) (2020-10-04T10:25:13Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。