論文の概要: Brain Tumor MRI Classification using a Novel Deep Residual and Regional
CNN
- arxiv url: http://arxiv.org/abs/2211.16571v1
- Date: Tue, 29 Nov 2022 20:14:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 16:30:42.564098
- Title: Brain Tumor MRI Classification using a Novel Deep Residual and Regional
CNN
- Title(参考訳): 新しい深部・局所CNNを用いた脳腫瘍MRI分類
- Authors: Mirza Mumtaz Zahoor, Saddam Hussain Khan
- Abstract要約: Res-BRNet Convolutional Neural Network (CNN) は脳腫瘍(磁気共鳴イメージング)MRIの診断に有用である。
開発されたRes-BRNetの効率は、KaggleとFigshareから収集された標準データセットに基づいて評価される。
実験により、Res-BRNetは標準CNNモデルよりも優れ、優れた性能を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Brain tumor classification is crucial for clinical analysis and an effective
treatment plan to cure patients. Deep learning models help radiologists to
accurately and efficiently analyze tumors without manual intervention. However,
brain tumor analysis is challenging because of its complex structure, texture,
size, location, and appearance. Therefore, a novel deep residual and
regional-based Res-BRNet Convolutional Neural Network (CNN) is developed for
effective brain tumor (Magnetic Resonance Imaging) MRI classification. The
developed Res-BRNet employed Regional and boundary-based operations in a
systematic order within the modified spatial and residual blocks. Moreover, the
spatial block extract homogeneity and boundary-defined features at the abstract
level. Furthermore, the residual blocks employed at the target level
significantly learn local and global texture variations of different classes of
brain tumors. The efficiency of the developed Res-BRNet is evaluated on a
standard dataset; collected from Kaggle and Figshare containing various tumor
categories, including meningioma, glioma, pituitary, and healthy images.
Experiments prove that the developed Res-BRNet outperforms the standard CNN
models and attained excellent performances (accuracy: 98.22%, sensitivity:
0.9811, F-score: 0.9841, and precision: 0.9822) on challenging datasets.
Additionally, the performance of the proposed Res-BRNet indicates a strong
potential for medical image-based disease analyses.
- Abstract(参考訳): 脳腫瘍の分類は臨床分析に不可欠であり、患者を治療するための効果的な治療計画である。
深層学習モデルは、放射線技師が手動で腫瘍を正確にかつ効率的に分析するのに役立つ。
しかし、脳腫瘍解析は複雑な構造、テクスチャ、サイズ、位置、外観のために困難である。
そこで,脳腫瘍(磁気共鳴イメージング)のMRI分類のために,新たにRes-BRNet畳み込みニューラルネットワーク(CNN)を開発した。
開発されたRes-BRNetは、空間ブロックと残留ブロックの体系的な順序で、地域および境界ベースの操作を採用した。
さらに,空間ブロックは抽象レベルでの均一性と境界定義特徴を抽出する。
さらに, ターゲットレベルの残留ブロックは, 脳腫瘍の局所的, 全体的テクスチャの変化を有意に学習する。
また, 髄膜腫, グリオーマ, 下垂体, 健康画像などの各種腫瘍カテゴリを含むカグルとfigshareから得られたres-brnetの効率を標準データセットで評価した。
実験によると、Res-BRNetは標準のCNNモデルより優れており、優れた性能(精度:98.22%、感度:0.9811、Fスコア:0.9841、精度:0.9822)を達成した。
さらに,提案したRes-BRNetの性能は,医用画像に基づく疾患解析の強力な可能性を示している。
関連論文リスト
- Hybrid Multihead Attentive Unet-3D for Brain Tumor Segmentation [0.0]
脳腫瘍のセグメンテーションは、医療画像解析において重要な課題であり、脳腫瘍患者の診断と治療計画を支援する。
様々な深層学習技術がこの分野で大きな進歩を遂げてきたが、脳腫瘍形態の複雑で変動的な性質のため、精度の面ではまだ限界に直面している。
本稿では,脳腫瘍の正確なセグメンテーションにおける課題を解決するために,新しいハイブリッドマルチヘッド注意型U-Netアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-05-22T02:46:26Z) - A Two-Stage Generative Model with CycleGAN and Joint Diffusion for
MRI-based Brain Tumor Detection [41.454028276986946]
本稿では,脳腫瘍の検出とセグメンテーションを改善するための2段階生成モデル(TSGM)を提案する。
CycleGANは、未ペアデータに基づいてトレーニングされ、データとして正常な画像から異常な画像を生成する。
VE-JPは、合成対の異常画像をガイドとして使用して、健康な画像の再構成を行う。
論文 参考訳(メタデータ) (2023-11-06T12:58:26Z) - Advancing Brain Tumor Detection: A Thorough Investigation of CNNs,
Clustering, and SoftMax Classification in the Analysis of MRI Images [0.0]
脳腫瘍は、すべての年齢層で高い有病率と死亡率のため、世界的な健康上の大きな課題となる。
本研究は,MRI画像を用いた脳腫瘍検出における畳み込みニューラルネットワーク(CNN)の使用に関する包括的研究である。
このデータセットは、健康な個人と脳腫瘍患者のMRIスキャンで作成され、CNNアーキテクチャーに入力された。
論文 参考訳(メタデータ) (2023-10-26T18:27:20Z) - Automated ensemble method for pediatric brain tumor segmentation [0.0]
本研究では,ONet と UNet の修正版を用いた新しいアンサンブル手法を提案する。
データ拡張により、さまざまなスキャンプロトコル間の堅牢性と精度が保証される。
以上の結果から,この高度なアンサンブルアプローチは診断精度の向上に期待できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-14T15:29:32Z) - A Novel SLCA-UNet Architecture for Automatic MRI Brain Tumor
Segmentation [0.0]
脳腫瘍は、個人の寿命を減少させる深刻な健康上の合併症の1つである。
脳腫瘍のタイムリーな検出と予測は、脳腫瘍による死亡率の予防に役立つ。
ディープラーニングベースのアプローチは、自動化バイオメディカル画像探索ツールを開発するための有望なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-16T14:06:45Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - A New Deep Hybrid Boosted and Ensemble Learning-based Brain Tumor
Analysis using MRI [0.28675177318965034]
磁気共鳴画像(MRI)における脳腫瘍の検出・分類のための2段階深層学習フレームワークの提案
第1フェーズでは、健康な人から腫瘍MRI画像を検出するために、新しい深層化特徴とアンサンブル分類器(DBF-EC)方式が提案されている。
第2段階では, 異なる腫瘍タイプを分類するために, 動的静的特徴とML分類器からなる融合型脳腫瘍分類法が提案されている。
論文 参考訳(メタデータ) (2022-01-14T10:24:47Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Scale-Space Autoencoders for Unsupervised Anomaly Segmentation in Brain
MRI [47.26574993639482]
本研究では, 異常セグメンテーション性能の向上と, ネイティブ解像度で入力データのより鮮明な再構成を行う汎用能力を示す。
ラプラシアンピラミッドのモデリングにより、複数のスケールで病変のデライン化と集約が可能になる。
論文 参考訳(メタデータ) (2020-06-23T09:20:42Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。