論文の概要: BRISC: Annotated Dataset for Brain Tumor Segmentation and Classification with Swin-HAFNet
- arxiv url: http://arxiv.org/abs/2506.14318v2
- Date: Tue, 19 Aug 2025 11:17:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.538567
- Title: BRISC: Annotated Dataset for Brain Tumor Segmentation and Classification with Swin-HAFNet
- Title(参考訳): BRISC: Swin-HAFNetによる脳腫瘍の分類と分類のための注釈付きデータセット
- Authors: Amirreza Fateh, Yasin Rezvani, Sara Moayedi, Sadjad Rezvani, Fatemeh Fateh, Mansoor Fateh,
- Abstract要約: 我々は,脳腫瘍の分類と分類に特化して設計されたBRISCという新しいMRIデータセットを提案する。
このデータセットは、放射線医や医師によって注釈された6000個の造影T1強調MRIスキャンで構成されている。
悪性腫瘍としてはグリオーマ、髄膜腫、下垂体腫瘍の3種類と非腫瘍の3種類がある。
- 参考スコア(独自算出の注目度): 1.1545092788508224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate segmentation and classification of brain tumors from Magnetic Resonance Imaging (MRI) remain key challenges in medical image analysis. This is primarily due to the lack of high-quality, balanced, and diverse datasets. In this work, we present a newly developed MRI dataset named BRISC designed specifically for brain tumor segmentation and classification tasks. The dataset comprises 6,000 contrast-enhanced T1-weighted MRI scans annotated by certified radiologists and physicians. It includes three major tumor types, namely glioma, meningioma, and pituitary, as well as non-tumorous cases. Each sample includes high-resolution labels and is categorized across axial, sagittal, and coronal imaging planes to facilitate robust model development and cross-view generalization. To demonstrate the utility of the dataset, we propose a transformer-based segmentation model and benchmark it against established baselines. In this work, we propose a transformer-based model designed for both segmentation and classification of brain tumors, leveraging multi-scale feature representations from a Swin Transformer backbone. The model is benchmarked against established baselines to demonstrate the utility of the dataset, enabling accurate segmentation and robust classification across four diagnostic categories: glioma, meningioma, pituitary, and non-tumorous cases. In this work, our proposed transformer-based model demonstrates superior performance in both segmentation and classification tasks for brain tumor analysis. For the segmentation task, the method achieves the highest weighted mean Intersection-over-Union (IoU) of 82.3\%, with improvements observed across all tumor categories. For the classification task, the model attains an accuracy of 99.63\%, effectively distinguishing between glioma, meningioma, pituitary, and non-tumorous cases. https://www.kaggle.com/datasets/briscdataset/brisc2025/
- Abstract(参考訳): 磁気共鳴イメージング(MRI)による脳腫瘍の正確なセグメント化と分類は、医用画像解析において重要な課題である。
これは主に、高品質でバランスの取れた、多様なデータセットが欠如しているためである。
そこで本研究では,脳腫瘍の分類と分類に特化して設計されたBRISCというMRIデータセットを提案する。
データセットは6000個の造影T1強調MRIスキャンからなり、認証された放射線医や医師が注釈を付けている。
悪性腫瘍としてはグリオーマ、髄膜腫、下垂体腫瘍の3種類と非腫瘍の3種類がある。
それぞれのサンプルは高解像度ラベルを含み、軸、矢状、およびコロナイメージングプレーンに分類され、堅牢なモデル開発とクロスビューの一般化を容易にする。
データセットの有用性を示すために,トランスフォーマーベースセグメンテーションモデルを提案し,既存のベースラインに対してベンチマークを行う。
本研究では,スウィントランスフォーマーのバックボーンからのマルチスケール特徴表現を利用して,脳腫瘍のセグメント化と分類を両立するトランスフォーマーモデルを提案する。
このモデルは、確立されたベースラインに対してベンチマークを行い、グリオーマ、髄膜腫、下垂体、非腫瘍の4つの診断カテゴリで正確なセグメンテーションと堅牢な分類を可能にする。
そこで本研究では,脳腫瘍解析におけるセグメンテーションおよび分類タスクにおいて,トランスフォーマーを用いたモデルの有効性を示す。
セグメンテーションタスクでは,全腫瘍のカテゴリーで改善が観察され,IoU (Intersection-over-Union) が最も高い82.3\%の重み付き平均値が得られる。
分類作業では、グリオーマ、髄膜腫、下垂体、非腫瘍例を効果的に区別し、99.63\%の精度が得られる。
https://www.kaggle.com/datasets/briscdataset/brisc2025/
関連論文リスト
- Evaluation of Vision Transformers for Multimodal Image Classification: A Case Study on Brain, Lung, and Kidney Tumors [0.0]
この研究は、MRIおよびCTスキャンのいくつかのデータセットにおいて、Swin TransformerやMaxViTを含むVision Transformersアーキテクチャのパフォーマンスを評価する。
その結果、Swin Transformerは高い精度を示し、個々のデータセットの平均で99%、組み合わせたデータセットで99.4%の精度を実現した。
論文 参考訳(メタデータ) (2025-02-08T10:35:51Z) - Unified HT-CNNs Architecture: Transfer Learning for Segmenting Diverse Brain Tumors in MRI from Gliomas to Pediatric Tumors [2.104687387907779]
トランスファーラーニングにより最適化されたハイブリッドトランスフォーマーと畳み込みニューラルネットワークのアンサンブルであるHT-CNNを紹介した。
この方法では、MRIデータから空間的および文脈的詳細を抽出し、一般的な腫瘍のタイプを表す多様なデータセットを微調整する。
本研究は, 医療イメージセグメンテーションにおけるトランスファーラーニングとアンサンブルアプローチの可能性を明らかにし, 臨床意思決定と患者ケアの大幅な向上を示唆するものである。
論文 参考訳(メタデータ) (2024-12-11T09:52:01Z) - MRGen: Segmentation Data Engine For Underrepresented MRI Modalities [59.61465292965639]
稀ながら臨床的に重要な画像モダリティのための医用画像分割モデルの訓練は、注釈付きデータの不足により困難である。
本稿では、生成モデルを利用してトレーニングデータを合成し、未表現のモダリティに対するセグメンテーションモデルを訓練する。
論文 参考訳(メタデータ) (2024-12-04T16:34:22Z) - Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - RadGenome-Chest CT: A Grounded Vision-Language Dataset for Chest CT Analysis [56.57177181778517]
RadGenome-Chest CTはCT-RATEに基づく大規模3次元胸部CT解釈データセットである。
私たちは、最新の強力なユニバーサルセグメンテーションと大きな言語モデルを活用して、元のデータセットを拡張します。
論文 参考訳(メタデータ) (2024-04-25T17:11:37Z) - Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation [48.107348956719775]
Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - Fully Automated Tumor Segmentation for Brain MRI data using Multiplanner
UNet [0.29998889086656577]
本研究は,3つの挑戦的データセットにまたがる腫瘍サブリージョンの分割におけるマルチプランナーU-Net(MPUnet)アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2024-01-12T10:46:19Z) - Generating 3D Brain Tumor Regions in MRI using Vector-Quantization
Generative Adversarial Networks [5.380977479547755]
本稿では、ベクトル量子化GANとマスクトークンモデリングを取り入れたトランスフォーマーを用いて、高分解能で多様な3次元脳腫瘍ROIを生成する新しいフレームワークを提案する。
提案手法は,MRIでまれな脳腫瘍の正確な診断を容易にする可能性がある。
論文 参考訳(メタデータ) (2023-10-02T14:39:10Z) - UniBrain: Universal Brain MRI Diagnosis with Hierarchical
Knowledge-enhanced Pre-training [66.16134293168535]
我々はUniBrainと呼ばれるユニバーサル脳MRI診断のための階層的知識強化事前訓練フレームワークを提案する。
具体的には、UniBrainは、定期的な診断から24,770のイメージレポートペアの大規模なデータセットを活用する。
論文 参考訳(メタデータ) (2023-09-13T09:22:49Z) - Integrative Imaging Informatics for Cancer Research: Workflow Automation
for Neuro-oncology (I3CR-WANO) [0.12175619840081271]
我々は,多系列ニューロオンコロジーMRIデータの集約と処理のための人工知能ベースのソリューションを提案する。
エンド・ツー・エンドのフレームワーク i) アンサンブル分類器を用いてMRIの配列を分類し, i) 再現可能な方法でデータを前処理し, iv) 腫瘍組織サブタイプを規定する。
欠落したシーケンスに対して堅牢であり、専門的なループアプローチを採用しており、セグメンテーションの結果は放射線学者によって手動で洗練される可能性がある。
論文 参考訳(メタデータ) (2022-10-06T18:23:42Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。