論文の概要: A Tumor Aware DenseNet Swin Hybrid Learning with Boosted and Hierarchical Feature Spaces for Large-Scale Brain MRI Classification
- arxiv url: http://arxiv.org/abs/2601.18330v1
- Date: Mon, 26 Jan 2026 10:14:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.769081
- Title: A Tumor Aware DenseNet Swin Hybrid Learning with Boosted and Hierarchical Feature Spaces for Large-Scale Brain MRI Classification
- Title(参考訳): 大規模脳MRI分類のための拡張的特徴空間と階層的特徴空間を用いた腫瘍認識DenseNetスウィンハイブリッド学習
- Authors: Muhammad Ali Shah, Muhammad Mansoor Alam, Saddam Hussain Khan,
- Abstract要約: クラス固有の診断課題に対処するために、2つの腫瘍認識実験装置が導入された。
DenseNetはMRI空間特性に合わせて入力レベルでカスタマイズされる。
Swin_tは、髄膜腫と下垂体腫瘍の分類において、偽陰性を効果的に抑制するグローバルな腫瘍形態をモデル化する。
- 参考スコア(独自算出の注目度): 0.6991281327290525
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study proposes an efficient Densely Swin Hybrid (EDSH) framework for brain tumor MRI analysis, designed to jointly capture fine grained texture patterns and long range contextual dependencies. Two tumor aware experimental setups are introduced to address class-specific diagnostic challenges. The first setup employs a Boosted Feature Space (BFS), where independently customized DenseNet and Swint branches learn complementary local and global representations that are dimension aligned, fused, and boosted, enabling highly sensitive detection of diffuse glioma patterns by successfully learning the features of irregular shape, poorly defined mass, and heterogeneous texture. The second setup adopts a hierarchical DenseNet Swint architecture with Deep Feature Extraction have Dual Residual connections (DFE and DR), in which DenseNet serves as a stem CNN for structured local feature learning, while Swin_t models global tumor morphology, effectively suppressing false negatives in meningioma and pituitary tumor classification by learning the features of well defined mass, location (outside brain) and enlargments in tumors (dural tail or upward extension). DenseNet is customized at the input level to match MRI spatial characteristics, leveraging dense residual connectivity to preserve texture information and mitigate vanishing-gradient effects. In parallel, Swint is tailored through task aligned patch embedding and shifted-window self attention to efficiently capture hierarchical global dependencies. Extensive evaluation on a large-scale MRI dataset (stringent 40,260 images across four tumor classes) demonstrates consistent superiority over standalone CNNs, Vision Transformers, and hybrids, achieving 98.50 accuracy and recall on the test unseen dataset.
- Abstract(参考訳): 本研究では,脳腫瘍MRI解析のためのDensely Swin Hybrid (EDSH) フレームワークを提案する。
クラス固有の診断課題に対処するために、2つの腫瘍認識実験装置が導入された。
最初のセットアップはBoosted Feature Space (BFS)を採用しており、独立にカスタマイズされたDenseNetとSwintブランチは、寸法が整い、融合し、強化された、相補的な局所的およびグローバルな表現を学習し、不規則な形状、未定義の質量、不均一なテクスチャの特徴をうまく学習することで、拡散グリオーマパターンの高感度検出を可能にする。
第2のセットアップでは階層的なDenseNet Swintアーキテクチャを採用しており、DenseNetは局所的な特徴学習のための幹CNNとして機能し、Swin_tは髄膜腫の偽陰性や下垂体腫瘍の分類を効果的に抑制する。
DenseNetは、MRI空間特性に合わせて入力レベルでカスタマイズされ、密集した接続を利用してテクスチャ情報を保存し、消滅と漸進効果を軽減する。
並行して、Swintはタスクアラインパッチの埋め込みとシフトウィンドウの自己注意によって調整され、階層的なグローバル依存関係を効率的にキャプチャする。
大規模なMRIデータセット(4つの腫瘍クラスにまたがる40,260枚の画像)の広範囲な評価は、スタンドアロンのCNNやビジョントランスフォーマー、ハイブリッドよりも一貫した優位性を示し、98.50の精度とテスト対象の未確認データセットのリコールを実現している。
関連論文リスト
- DRBD-Mamba for Robust and Efficient Brain Tumor Segmentation with Analytical Insights [54.87947751720332]
脳腫瘍の正確なセグメンテーションは、臨床診断と治療に重要である。
マンバを拠点とするState Space Modelsは、有望なパフォーマンスを示している。
本稿では,計算オーバーヘッドを最小限に抑えながら,マルチスケールの長距離依存関係をキャプチャするマルチ解像度双方向マンバを提案する。
論文 参考訳(メタデータ) (2025-10-16T07:31:21Z) - CE-RS-SBCIT A Novel Channel Enhanced Hybrid CNN Transformer with Residual, Spatial, and Boundary-Aware Learning for Brain Tumor MRI Analysis [0.7857499581522376]
このフレームワークは4つのコアイノベーションを通じて、局所的な細粒度とグローバルなコンテキストのキューを利用する。
このフレームワークは98.30%の精度、98.08%の感度、98.25%のF1スコア、98.43%の精度を実現している。
論文 参考訳(メタデータ) (2025-08-23T20:09:39Z) - EfficientGFormer: Multimodal Brain Tumor Segmentation via Pruned Graph-Augmented Transformer [0.0]
EfficientGFormerは、事前訓練された基礎モデルとグラフベースの推論を統合する新しいアーキテクチャである。
MSD Task01とBraTS 2021データセットの実験は、EfficientGFormerがメモリと推論時間を著しく削減して最先端の精度を達成することを示した。
論文 参考訳(メタデータ) (2025-08-02T18:52:59Z) - Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - Robust Tumor Segmentation with Hyperspectral Imaging and Graph Neural Networks [31.87960207119459]
より堅牢でスムーズなセグメンテーションのために,タイルの空間的文脈を利用した改良手法を提案する。
タイルの不規則な形状に対処するため,グラフニューラルネットワーク(GNN)を用いて周辺地域のコンテキスト情報を伝播する。
以上の結果から, 文脈認識型GNNアルゴリズムは, HSI画像上の腫瘍の区切りを頑健に検出できることが示唆された。
論文 参考訳(メタデータ) (2023-11-20T14:07:38Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - Brain Tumor MRI Classification using a Novel Deep Residual and Regional
CNN [0.0]
Res-BRNet Convolutional Neural Network (CNN) は脳腫瘍(磁気共鳴イメージング)MRIの診断に有用である。
開発されたRes-BRNetの効率は、KaggleとFigshareから収集された標準データセットに基づいて評価される。
実験により、Res-BRNetは標準CNNモデルよりも優れ、優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-29T20:14:13Z) - Hybrid Window Attention Based Transformer Architecture for Brain Tumor
Segmentation [28.650980942429726]
細かな特徴を抽出するための2つのウィンドウ化戦略に従うボリューム視覚変換器を提案する。
FeTS Challenge 2022データセット上で,ネットワークアーキテクチャをトレーニングし,評価した。
オンライン検証データセットのパフォーマンスは以下の通りである。 Dice similarity Score of 81.71%, 91.38%, 85.40%。
論文 参考訳(メタデータ) (2022-09-16T03:55:48Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。