論文の概要: BrainSegDMlF: A Dynamic Fusion-enhanced SAM for Brain Lesion Segmentation
- arxiv url: http://arxiv.org/abs/2505.06133v1
- Date: Fri, 09 May 2025 15:40:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.318595
- Title: BrainSegDMlF: A Dynamic Fusion-enhanced SAM for Brain Lesion Segmentation
- Title(参考訳): BrainSegDMlF:脳病変分離のための動的核融合増強SAM
- Authors: Hongming Wang, Yifeng Wu, Huimin Huang, Hongtao Wu, Jia-Xuan Jiang, Xiaodong Zhang, Hao Zheng, Xian Wu, Yefeng Zheng, Jinping Xu, Jing Cheng,
- Abstract要約: 脳画像における実質的な脳病変は、病変領域と正常な脳組織の間に不明瞭な境界を持つ高い異種性を示す。
単一スライスにおける小病変の同定は困難であり, 異常領域の正確な再現性セグメンテーション, 特徴記述は非常に複雑である。
既存の手法には次のような制限がある: 1) 診断に一般的に使用されるマルチモーダル情報を無視し、学習に単一モーダル情報のみに依存する。
- 参考スコア(独自算出の注目度): 39.74162517990082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The segmentation of substantial brain lesions is a significant and challenging task in the field of medical image segmentation. Substantial brain lesions in brain imaging exhibit high heterogeneity, with indistinct boundaries between lesion regions and normal brain tissue. Small lesions in single slices are difficult to identify, making the accurate and reproducible segmentation of abnormal regions, as well as their feature description, highly complex. Existing methods have the following limitations: 1) They rely solely on single-modal information for learning, neglecting the multi-modal information commonly used in diagnosis. This hampers the ability to comprehensively acquire brain lesion information from multiple perspectives and prevents the effective integration and utilization of multi-modal data inputs, thereby limiting a holistic understanding of lesions. 2) They are constrained by the amount of data available, leading to low sensitivity to small lesions and difficulty in detecting subtle pathological changes. 3) Current SAM-based models rely on external prompts, which cannot achieve automatic segmentation and, to some extent, affect diagnostic efficiency.To address these issues, we have developed a large-scale fully automated segmentation model specifically designed for brain lesion segmentation, named BrainSegDMLF. This model has the following features: 1) Dynamic Modal Interactive Fusion (DMIF) module that processes and integrates multi-modal data during the encoding process, providing the SAM encoder with more comprehensive modal information. 2) Layer-by-Layer Upsampling Decoder, enabling the model to extract rich low-level and high-level features even with limited data, thereby detecting the presence of small lesions. 3) Automatic segmentation masks, allowing the model to generate lesion masks automatically without requiring manual prompts.
- Abstract(参考訳): 実質的な脳病変のセグメンテーションは、医療画像セグメンテーションの分野において重要かつ困難な課題である。
脳画像における実質的な脳病変は、病変領域と正常な脳組織の間に不明瞭な境界を持つ高い異種性を示す。
単一スライスにおける小病変の同定は困難であり, 異常領域の正確な再現性セグメンテーション, 特徴記述は非常に複雑である。
既存のメソッドには以下の制限がある。
1) シングルモーダル情報のみを学習に頼り, 診断によく用いられるマルチモーダル情報を無視した。
これにより、複数の視点から脳病変情報を包括的に取得し、マルチモーダルデータ入力の効果的な統合と利用を防止することができ、病変の全体的理解を制限できる。
2) 少ない病変に対する感度が低く, 微妙な病理学的変化を検出するのが困難である。
3)現在のSAMモデルでは,脳病変のセグメンテーションに特化した大規模完全自動セグメンテーションモデルBrainSegDMLFを開発した。
このモデルには以下の特徴がある。
1) 符号化処理中にマルチモーダルデータを処理・統合する動的モーダル・インタラクティブ・フュージョン(DMIF)モジュールにより、SAMエンコーダにより包括的なモーダル情報を提供する。
2) レイヤ・バイ・レイヤ・バイ・レイヤ・アップサンプリング・デコーダにより, 限られたデータであっても, 低レベル・高レベルの特徴を抽出し, 小病変の存在を検出することができる。
3)手動のプロンプトを必要とせず自動的に病変マスクを生成できる自動セグメンテーションマスク。
関連論文リスト
- MRGen: Segmentation Data Engine For Underrepresented MRI Modalities [59.61465292965639]
稀ながら臨床的に重要な画像モダリティのための医用画像分割モデルの訓練は、注釈付きデータの不足により困難である。
本稿では、生成モデルを利用してトレーニングデータを合成し、未表現のモダリティに対するセグメンテーションモデルを訓練する。
論文 参考訳(メタデータ) (2024-12-04T16:34:22Z) - Knowledge-Guided Prompt Learning for Lifespan Brain MR Image Segmentation [53.70131202548981]
本稿では,脳MRIにKGPL(Knowledge-Guided Prompt Learning)を用いた2段階のセグメンテーションフレームワークを提案する。
具体的には,大規模データセットと準最適ラベルを用いたトレーニング前セグメンテーションモデルについて述べる。
知識的プロンプトの導入は、解剖学的多様性と生物学的プロセスの間の意味的関係を捉えている。
論文 参考訳(メタデータ) (2024-07-31T04:32:43Z) - Modality-Aware and Shift Mixer for Multi-modal Brain Tumor Segmentation [12.094890186803958]
マルチモーダル画像のモダリティ内依存性とモダリティ間依存性を統合した新しいModality Aware and Shift Mixerを提案する。
具体的には,低レベルのモザイク対関係をモデル化するためのニューロイメージング研究に基づいてModality-Awareモジュールを導入し,モザイクパターンを具体化したModality-Shiftモジュールを開発し,高レベルのモザイク間の複雑な関係を自己注意を通して探索する。
論文 参考訳(メタデータ) (2024-03-04T14:21:51Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - Hard Exudate Segmentation Supplemented by Super-Resolution with
Multi-scale Attention Fusion Module [14.021944194533644]
硬外用量(HE)は網膜浮腫の最も特異的なバイオマーカーである。
本稿では,SS-MAFと呼ばれる高分解能部分分割手法を提案する。
我々はIDRiDとE-Ophthaの2つのパブリック病変データセットについて検討した。
論文 参考訳(メタデータ) (2022-11-17T08:25:04Z) - BrainFormer: A Hybrid CNN-Transformer Model for Brain fMRI Data
Classification [31.83866719445596]
BrainFormerは、単一のfMRIボリュームを持つ脳疾患分類のための一般的なハイブリッドトランスフォーマーアーキテクチャである。
BrainFormerは、各voxel内のローカルキューを3D畳み込みでモデル化することによって構築される。
我々は、ABIDE、ADNI、MPILMBB、ADHD-200、ECHOを含む5つの独立して取得したデータセット上でBrainFormerを評価する。
論文 参考訳(メタデータ) (2022-08-05T07:54:10Z) - Factorization Approach for Sparse Spatio-Temporal Brain-Computer
Interface [17.85507707727557]
脳波信号の分解により,スパース条件下での豊かで決定的な特徴を抽出できることを示す。
単腕運動画像データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2022-06-17T00:30:43Z) - SMU-Net: Style matching U-Net for brain tumor segmentation with missing
modalities [4.855689194518905]
MRI画像における脳腫瘍のセグメント化のためのスタイルマッチングU-Net(SMU-Net)を提案する。
我々の共同学習手法は、コンテンツとスタイルマッチング機構を用いて、全モダリティネットワークから欠落したモダリティネットワークに情報的特徴を蒸留する。
我々のスタイルマッチングモジュールは、一致した関数を学習して表現空間を適応的に再構成し、情報的特徴とテクスチャ的特徴を完全なモダリティパスから欠落モダリティパスに転送する。
論文 参考訳(メタデータ) (2022-04-06T17:55:19Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。