論文の概要: Brain Tumor Identification using Improved YOLOv8
- arxiv url: http://arxiv.org/abs/2502.03746v1
- Date: Thu, 06 Feb 2025 03:16:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:33:33.426099
- Title: Brain Tumor Identification using Improved YOLOv8
- Title(参考訳): 改良型YOLOv8を用いた脳腫瘍の同定
- Authors: Rupesh Dulal, Rabin Dulal,
- Abstract要約: 我々はMRI画像内の腫瘍を正確に検出する修正されたYou Only Look Once (YOLOv8)モデルを提案する。
提案手法は,非最大抑圧 (NMS) アルゴリズムを実時間検出変換器 (RT-DETR) に置き換える。
2つ目の改善は、通常の畳み込みブロックをゴースト畳み込みに置き換えることである。
3つ目の改善は、YOLOv8のバックボーンに視覚トランスフォーマーブロックを導入して、コンテキスト認識機能を抽出することで実現された。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Identifying the extent of brain tumors is a significant challenge in brain cancer treatment. The main difficulty is in the approximate detection of tumor size. Magnetic resonance imaging (MRI) has become a critical diagnostic tool. However, manually detecting the boundaries of brain tumors from MRI scans is a labor-intensive task that requires extensive expertise. Deep learning and computer-aided detection techniques have led to notable advances in machine learning for this purpose. In this paper, we propose a modified You Only Look Once (YOLOv8) model to accurately detect the tumors within the MRI images. The proposed model replaced the Non-Maximum Suppression (NMS) algorithm with a Real-Time Detection Transformer (RT- DETR) in the detection head. NMS filters out redundant or overlapping bounding boxes in the detected tumors, but they are hand-designed and pre-set. RT-DETR removes hand-designed components. The second improvement was made by replacing the normal convolution block with ghost convolution. Ghost Convolution reduces computational and memory costs while maintaining high accuracy and enabling faster inference, making it ideal for resource-constrained environments and real-time applications. The third improvement was made by introducing a vision transformer block in the backbone of YOLOv8 to extract context-aware features. We used a publicly available dataset of brain tumors in the proposed model. The proposed model performed better than the original YOLOv8 model and also performed better than other object detectors (Faster R- CNN, Mask R-CNN, YOLO, YOLOv3, YOLOv4, YOLOv5, SSD, RetinaNet, EfficientDet, and DETR). The proposed model achieved 0.91 mAP (mean Average Precision)@0.5.
- Abstract(参考訳): 脳腫瘍の程度を特定することは、脳がん治療において重要な課題である。
主な課題は、腫瘍の大きさを近似的に検出することである。
MRI(MRI)は重要な診断ツールとなっている。
しかし、MRIスキャンから脳腫瘍の境界を手動で検出することは、広範囲の専門知識を必要とする労働集約的な作業である。
ディープラーニングとコンピュータ支援検出技術は、この目的のために機械学習の顕著な進歩をもたらした。
本稿では,MRI画像内の腫瘍を正確に検出する改良型You Only Look Once (YOLOv8) モデルを提案する。
提案手法は,非最大抑圧 (NMS) アルゴリズムを実時間検出変換器 (RT-DETR) に置き換える。
NMSは検出された腫瘍の冗長または重複したバウンディングボックスをフィルタリングするが、それらは手作業で設計され、プリセットされる。
RT-DETRは手書きのコンポーネントを除去する。
2つ目の改善は、通常の畳み込みブロックをゴースト畳み込みに置き換えることである。
Ghost Convolutionは、高い精度を維持しながら計算とメモリのコストを削減し、より高速な推論を可能にし、リソース制約のある環境やリアルタイムアプリケーションに最適である。
3つ目の改善は、YOLOv8のバックボーンに視覚トランスフォーマーブロックを導入して、コンテキスト認識機能を抽出することで実現された。
提案モデルで利用可能な脳腫瘍のデータセットを用いて検討した。
提案したモデルは、元のYOLOv8モデルよりも優れ、他のオブジェクト検出器(Faster R-CNN, Mask R-CNN, YOLO, YOLOv3, YOLOv4, YOLOv5, SSD, RetinaNet, EfficientDet, DETR)よりも優れた性能を示した。
提案したモデルは 0.91 mAP (平均精度)@0.5 である。
関連論文リスト
- PK-YOLO: Pretrained Knowledge Guided YOLO for Brain Tumor Detection in Multiplanar MRI Slices [6.502259209532815]
我々は、PK-YOLOと呼ばれる事前学習知識(PK)を組み込んだ新しいYou Only Look Once(YOLO)ベースの検出モデルを提案する。
PK-YOLOは、YOLOをベースとした物体検出器として初めて訓練された知識である。
提案したPK-YOLOは,多平面MRI脳腫瘍検出データセット上での競合性能を示す。
論文 参考訳(メタデータ) (2024-10-29T07:45:59Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Deep Fusion Model for Brain Tumor Classification Using Fine-Grained Gradient Preservation [0.0807707808613597]
この研究は、事前訓練されたResNet152V2と修正VGG16モデルを融合した、正確な脳腫瘍分類のための新しいアーキテクチャを提案する。
提案手法は,画像品質向上のために様々な画像処理技術を導入し,FigshareデータセットとKaggleデータセットでそれぞれ98.36%,98.04%の精度を実現している。
論文 参考訳(メタデータ) (2024-06-28T07:06:02Z) - Prediction of brain tumor recurrence location based on multi-modal
fusion and nonlinear correlation learning [55.789874096142285]
深層学習に基づく脳腫瘍再発位置予測ネットワークを提案する。
まず、パブリックデータセットBraTS 2021上で、マルチモーダル脳腫瘍セグメンテーションネットワークをトレーニングする。
次に、事前訓練されたエンコーダを、リッチなセマンティックな特徴を抽出するために、プライベートデータセットに転送する。
2つのデコーダは、現在の脳腫瘍を共同に分断し、将来の腫瘍再発位置を予測するために構築されている。
論文 参考訳(メタデータ) (2023-04-11T02:45:38Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - A deep learning approach for brain tumor detection using magnetic
resonance imaging [0.0]
脳腫瘍は、子供や成人で最も危険な疾患の1つと考えられている。
MRI画像から脳腫瘍を検出するための畳み込みニューラルネットワーク(CNN)に基づく図解が提案されている。
提案したモデルでは98.6%の精度と97.8%の精度でクロスエントロピー速度が低い。
論文 参考訳(メタデータ) (2022-10-25T10:13:29Z) - View-Disentangled Transformer for Brain Lesion Detection [50.4918615815066]
より正確な腫瘍検出のためのMRI特徴抽出のための新しいビューディペンタングル変換器を提案する。
まず, 3次元脳スキャンにおいて, 異なる位置の長距離相関を求める。
第二に、トランスフォーマーはスライス機能のスタックを複数の2Dビューとしてモデル化し、これらの機能をビュー・バイ・ビューとして拡張する。
第三に、提案したトランスモジュールをトランスのバックボーンに展開し、脳病変を取り巻く2D領域を効果的に検出する。
論文 参考訳(メタデータ) (2022-09-20T11:58:23Z) - Detection and Classification of Brain tumors Using Deep Convolutional
Neural Networks [0.0]
脳の腫瘍はがんなので致命的です。
脳腫瘍の大きさや位置が異なるため、その性質を理解することは困難である。
本論文は,通常の画素と異常画素を区別し,精度良く分類することを目的とする。
論文 参考訳(メタデータ) (2022-08-28T18:24:22Z) - A Novel Framework for Brain Tumor Detection Based on Convolutional
Variational Generative Models [6.726255259929498]
本稿では,脳腫瘍の検出と分類のための新しい枠組みを提案する。
提案フレームワークは、全体的な検出精度96.88%を取得する。
提案されたフレームワークは,脳腫瘍の正確な検出システムとして期待されている。
論文 参考訳(メタデータ) (2022-02-20T16:14:01Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。