論文の概要: Optimizing the nnU-Net model for brain tumor (Glioma) segmentation Using a BraTS Sub-Saharan Africa (SSA) dataset
- arxiv url: http://arxiv.org/abs/2511.02893v1
- Date: Tue, 04 Nov 2025 15:58:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.199777
- Title: Optimizing the nnU-Net model for brain tumor (Glioma) segmentation Using a BraTS Sub-Saharan Africa (SSA) dataset
- Title(参考訳): BraTS Sub-Saharan Africa (SSA)データセットを用いた脳腫瘍(グリオーマ)セグメンテーションのためのnnU-Netモデル最適化
- Authors: Chukwuemeka Arua Kalu, Adaobi Chiazor Emegoakor, Fortune Okafor, Augustine Okoh Uchenna, Chijioke Kelvin Ukpai, Godsent Erere Onyeugbo,
- Abstract要約: この研究はBraTS Sub-Saharan Africaデータセットを使用しており、これはBraTSデータセットの選ばれたサブセットであり、グリオーマ患者の60のマルチモーダルMRIケースを含んでいる。
驚くべきことに、最初の60インスタンスでトレーニングされたnnU Netモデルは、オフラインで拡張された360ケースのデータセットでトレーニングされたネットワークよりもパフォーマンスが良かった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image segmentation is a critical achievement in modern medical science, developed over decades of research. It allows for the exact delineation of anatomical and pathological features in two- or three-dimensional pictures by utilizing notions like pixel intensity, texture, and anatomical context. With the advent of automated segmentation, physicians and radiologists may now concentrate on diagnosis and treatment planning while intelligent computers perform routine image processing tasks. This study used the BraTS Sub-Saharan Africa dataset, a selected subset of the BraTS dataset that included 60 multimodal MRI cases from patients with glioma. Surprisingly, the nnU Net model trained on the initial 60 instances performed better than the network trained on an offline-augmented dataset of 360 cases. Hypothetically, the offline augmentations introduced artificial anatomical variances or intensity distributions, reducing generalization. In contrast, the original dataset, when paired with nnU Net's robust online augmentation procedures, maintained realistic variability and produced better results. The study achieved a Dice score of 0.84 for whole tumor segmentation. These findings highlight the significance of data quality and proper augmentation approaches in constructing accurate, generalizable medical picture segmentation models, particularly for under-represented locations.
- Abstract(参考訳): 医用画像のセグメンテーションは、何十年にもわたって研究されてきた現代医学における重要な成果である。
ピクセル強度、テクスチャ、解剖学的文脈といった概念を利用することで、2次元または3次元画像における解剖学的特徴と病理学的特徴を正確に記述することができる。
自動化セグメンテーションの出現により、医師や放射線技師は診断と治療計画に集中し、インテリジェントコンピュータは日常的な画像処理タスクを実行するようになった。
この研究はBraTS Sub-Saharan Africaデータセットを使用しており、これはBraTSデータセットの選ばれたサブセットであり、グリオーマ患者の60のマルチモーダルMRIケースを含んでいる。
驚くべきことに、最初の60インスタンスでトレーニングされたnnU Netモデルは、オフラインで拡張された360ケースのデータセットでトレーニングされたネットワークよりもパフォーマンスが良かった。
仮定的に、オフラインの拡張は、人工解剖学的分散や強度分布を導入し、一般化を減らした。
これとは対照的に、元のデータセットはnnU Netの堅牢なオンライン拡張手順と組み合わせて、現実的な変動を維持し、より良い結果を生み出した。
本研究は全腫瘍分節に対するDiceスコア0.84を達成した。
これらの知見は, 高精度で汎用的な医用画像分割モデルの構築において, データ品質と適切な拡張アプローチの重要性を浮き彫りにした。
関連論文リスト
- Advancing Brain Tumor Segmentation via Attention-based 3D U-Net Architecture and Digital Image Processing [0.0]
本研究の目的は,脳腫瘍のセグメンテーションの性能を高めることであり,最終的に診断の信頼性を向上させることである。
提案したモデルは、この目標を達成するために、さまざまなパフォーマンス指標を使用して、BraTS 2020データセットで徹底的に評価され、評価される。
論文 参考訳(メタデータ) (2025-10-21T22:11:19Z) - Glioblastoma Overall Survival Prediction With Vision Transformers [6.318465743962574]
グリオ芽腫は最も攻撃的で一般的な脳腫瘍の1つで、生存期間は10~15ヶ月である。
本研究では,MRI画像を用いた総合生存(OS)予測のための新しい人工知能(AI)手法を提案する。
我々は視覚変換器(ViT)を用いてMRI画像から直接隠れた特徴を抽出し,腫瘍のセグメンテーションの必要性を排除した。
提案したモデルは、BRATSデータセットで評価され、テストセット上で62.5%の精度を達成した。
論文 参考訳(メタデータ) (2025-08-04T13:59:57Z) - Deep Ensemble approach for Enhancing Brain Tumor Segmentation in Resource-Limited Settings [4.022491041135248]
本研究では, グリオーマのセマンティックセグメンテーションのために, UNet3D, V-Net, MSA-VNetモデルを統合した深層学習アンサンブルを開発する。
DICEスコアは腫瘍コア0.8358、全腫瘍0.8521、腫瘍エンハンス0.8167である。
論文 参考訳(メタデータ) (2025-02-04T09:53:09Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - A Two-Stage Generative Model with CycleGAN and Joint Diffusion for
MRI-based Brain Tumor Detection [41.454028276986946]
本稿では,脳腫瘍の検出とセグメンテーションを改善するための2段階生成モデル(TSGM)を提案する。
CycleGANは、未ペアデータに基づいてトレーニングされ、データとして正常な画像から異常な画像を生成する。
VE-JPは、合成対の異常画像をガイドとして使用して、健康な画像の再構成を行う。
論文 参考訳(メタデータ) (2023-11-06T12:58:26Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - Does anatomical contextual information improve 3D U-Net based brain
tumor segmentation? [0.0]
脳解剖学からの文脈情報の追加は、U-Netベースの脳腫瘍のセグメンテーションを改善するか検討した。
対象者ごとのMRモダリティを減らし, セグメンテーション精度, モデルトレーニング時間, ドメインの一般化, 補償の観点から, 文脈情報の追加が与える影響について検討した。
論文 参考訳(メタデータ) (2020-10-26T09:57:58Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。