論文の概要: Subcortical Masks Generation in CT Images via Ensemble-Based Cross-Domain Label Transfer
- arxiv url: http://arxiv.org/abs/2508.11450v1
- Date: Fri, 15 Aug 2025 12:57:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.958248
- Title: Subcortical Masks Generation in CT Images via Ensemble-Based Cross-Domain Label Transfer
- Title(参考訳): Ensemble-based Cross-Domain Label TransferによるCT画像の皮質下マスク生成
- Authors: Augustine X. W. Lee, Pak-Hei Yeung, Jagath C. Rajapakse,
- Abstract要約: 神経画像における皮質下セグメンテーションは、脳解剖の理解と、外傷性脳損傷や神経変性障害のコンピュータ支援による診断の促進に重要な役割を果たしている。
磁気共鳴画像(MRI)用の皮質下セグメンテーションデータセットが公開されているが、CT(Computed Tomography)には大きなギャップがある。
本稿では,既存のMRIモデルを利用して,CTスキャンのための高品質な皮質下セグメンテーションラベルを生成するための自動アンサンブルフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.312727273368205
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Subcortical segmentation in neuroimages plays an important role in understanding brain anatomy and facilitating computer-aided diagnosis of traumatic brain injuries and neurodegenerative disorders. However, training accurate automatic models requires large amounts of labelled data. Despite the availability of publicly available subcortical segmentation datasets for Magnetic Resonance Imaging (MRI), a significant gap exists for Computed Tomography (CT). This paper proposes an automatic ensemble framework to generate high-quality subcortical segmentation labels for CT scans by leveraging existing MRI-based models. We introduce a robust ensembling pipeline to integrate them and apply it to unannotated paired MRI-CT data, resulting in a comprehensive CT subcortical segmentation dataset. Extensive experiments on multiple public datasets demonstrate the superior performance of our proposed framework. Furthermore, using our generated CT dataset, we train segmentation models that achieve improved performance on related segmentation tasks. To facilitate future research, we make our source code, generated dataset, and trained models publicly available at https://github.com/SCSE-Biomedical-Computing-Group/CT-Subcortical-Segmentation, marking the first open-source release for CT subcortical segmentation to the best of our knowledge.
- Abstract(参考訳): 神経画像における皮質下セグメンテーションは、脳解剖の理解と、外傷性脳損傷や神経変性障害のコンピュータ支援による診断の促進に重要な役割を果たしている。
しかし、正確な自動モデルのトレーニングには大量のラベル付きデータが必要である。
MRI(Magnetic Resonance Imaging)用の皮質下セグメンテーションデータセットが公開されているが、CT(Computed Tomography)には大きなギャップがある。
本稿では,既存のMRIモデルを利用して,CTスキャンのための高品質な皮質下セグメンテーションラベルを生成するための自動アンサンブルフレームワークを提案する。
我々は、頑健なアンサンブルパイプラインを導入し、それらを無注釈のMRI-CTデータに適用し、包括的CT皮下セグメンテーションデータセットを作成する。
複数の公開データセットに対する大規模な実験は、提案フレームワークの優れた性能を示す。
さらに、生成されたCTデータセットを用いて、関連するセグメンテーションタスクの性能を向上させるセグメンテーションモデルを訓練する。
将来の研究を容易にするため、私たちは、ソースコード、生成されたデータセット、トレーニングされたモデルをhttps://github.com/SCSE-Biomedical-Computing-Group/CT-Subcortical-Segmentationで公開し、CTサブコルティカルセグメンテーションのための最初のオープンソースリリースを私たちの知識の最大限に活用しました。
関連論文リスト
- BRISC: Annotated Dataset for Brain Tumor Segmentation and Classification with Swin-HAFNet [1.1545092788508224]
このデータセットは、放射線医や医師によって注釈された6000個の造影T1強調MRIスキャンで構成されている。
それぞれのサンプルは高解像度のラベルを含み、軸、矢状、およびコロナイメージングプレーンに分類される。
IoU(Intersection-over-Union, Intersection-over-Union, IoU)が82.3%と高い値を示した。
論文 参考訳(メタデータ) (2025-06-17T08:56:05Z) - Foundation Model for Whole-Heart Segmentation: Leveraging Student-Teacher Learning in Multi-Modal Medical Imaging [0.510750648708198]
心血管疾患の診断にはCTとMRIによる全肝分画が不可欠である。
既存の方法は、モダリティ固有のバイアスと、広範なラベル付きデータセットの必要性に苦慮している。
学生-教師アーキテクチャに基づく自己指導型学習フレームワークを用いて,全音節セグメンテーションのための基礎モデルを提案する。
論文 参考訳(メタデータ) (2025-03-24T14:47:54Z) - MRGen: Segmentation Data Engine for Underrepresented MRI Modalities [59.61465292965639]
稀ながら臨床的に重要な画像モダリティのための医用画像分割モデルの訓練は、注釈付きデータの不足により困難である。
本稿では,データ合成における生成モデルの利用について検討する。
本稿では,テキストプロンプトとセグメンテーションマスクを条件とした医用画像合成のためのデータエンジンMRGenを提案する。
論文 参考訳(メタデータ) (2024-12-04T16:34:22Z) - Improve Cross-Modality Segmentation by Treating MRI Images as Inverted CT Scans [0.4867169878981935]
簡単な画像インバージョン手法により,MRIデータ上でのCTセグメント化モデルのセグメンテーション品質を大幅に向上できることを示す。
イメージインバージョンは実装が簡単で、専用のグラフィックス処理ユニット(GPU)を必要としない
論文 参考訳(メタデータ) (2024-05-04T14:02:52Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。