論文の概要: CoAtNeXt:An Attention-Enhanced ConvNeXtV2-Transformer Hybrid Model for Gastric Tissue Classification
- arxiv url: http://arxiv.org/abs/2509.09242v1
- Date: Thu, 11 Sep 2025 08:24:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.289939
- Title: CoAtNeXt:An Attention-Enhanced ConvNeXtV2-Transformer Hybrid Model for Gastric Tissue Classification
- Title(参考訳): CoAtNeXt:胃組織分類のためのConvNeXtV2変換器ハイブリッドモデル
- Authors: Mustafa Yurdakul, Sakir Tasdemir,
- Abstract要約: CoAtNeXtは胃組織像の分類法として提案された。
96.47%の精度、96.60%の精度、96.47%のリコール、96.45%のF1スコア、99.89%のAUCを達成した。
- 参考スコア(独自算出の注目度): 1.2891210250935148
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background and objective Early diagnosis of gastric diseases is crucial to prevent fatal outcomes. Although histopathologic examination remains the diagnostic gold standard, it is performed entirely manually, making evaluations labor-intensive and prone to variability among pathologists. Critical findings may be missed, and lack of standard procedures reduces consistency. These limitations highlight the need for automated, reliable, and efficient methods for gastric tissue analysis. Methods In this study, a novel hybrid model named CoAtNeXt was proposed for the classification of gastric tissue images. The model is built upon the CoAtNet architecture by replacing its MBConv layers with enhanced ConvNeXtV2 blocks. Additionally, the Convolutional Block Attention Module (CBAM) is integrated to improve local feature extraction through channel and spatial attention mechanisms. The architecture was scaled to achieve a balance between computational efficiency and classification performance. CoAtNeXt was evaluated on two publicly available datasets, HMU-GC-HE-30K for eight-class classification and GasHisSDB for binary classification, and was compared against 10 Convolutional Neural Networks (CNNs) and ten Vision Transformer (ViT) models. Results CoAtNeXt achieved 96.47% accuracy, 96.60% precision, 96.47% recall, 96.45% F1 score, and 99.89% AUC on HMU-GC-HE-30K. On GasHisSDB, it reached 98.29% accuracy, 98.07% precision, 98.41% recall, 98.23% F1 score, and 99.90% AUC. It outperformed all CNN and ViT models tested and surpassed previous studies in the literature. Conclusion Experimental results show that CoAtNeXt is a robust architecture for histopathological classification of gastric tissue images, providing performance on binary and multiclass. Its highlights its potential to assist pathologists by enhancing diagnostic accuracy and reducing workload.
- Abstract(参考訳): 胃疾患の早期診断の背景と目的は致命的な結果の予防に不可欠である。
病理組織学的検査は依然として診断基準となっているが、完全に手作業で実施され、労働集約的であり、病理学者の多様性を損なう可能性がある。
批判的な発見は見逃され、標準手順の欠如は一貫性を低下させる。
これらの制限は、胃組織分析の自動化、信頼性、効率的な方法の必要性を強調している。
方法 胃組織像の分類にはCoAtNeXtという新しいハイブリッドモデルが提案された。
このモデルは、MBConvレイヤを拡張されたConvNeXtV2ブロックに置き換えることで、CoAtNetアーキテクチャ上に構築されている。
さらに、CBAM(Convolutional Block Attention Module)が統合され、チャネルおよび空間的注意機構による局所的特徴抽出が改善される。
このアーキテクチャは、計算効率と分類性能のバランスをとるために拡張された。
CoAtNeXtは8クラス分類のHMU-GC-HE-30Kとバイナリ分類のGasHisSDBの2つの公開データセットで評価され、10の畳み込みニューラルネットワーク(CNN)と10のビジョントランスフォーマー(ViT)モデルと比較された。
結果、CoAtNeXtは96.47%の精度、96.60%の精度、96.47%のリコール、96.45%のF1スコア、99.89%のAUCをHMU-GC-HE-30Kで達成した。
GasHisSDBでは、98.29%の精度、98.07%の精度、98.41%のリコール、98.23%のF1スコア、99.90%のAUCに達した。
これはCNNとViTの全てのモデルより優れており、これまでの文献研究よりも優れていた。
結語実験の結果,CoAtNeXtは胃組織像の病理組織学的分類に頑健なアーキテクチャであり,二分体および多クラスでの評価が得られた。
診断精度を高め、作業負荷を減らすことで、病理学者を支援する可能性を強調している。
関連論文リスト
- Skin Cancer Classification: Hybrid CNN-Transformer Models with KAN-Based Fusion [0.0]
Convolutional Kolmogorov-Arnold Network (CKAN) を用いた逐次および並列ハイブリッドCNN-Transformerモデルについて検討する。
そこでCNNは局所的な空間的特徴を抽出し、トランスフォーマーはグローバルな依存関係をモデル化し、CKANは表現学習を改善するために非線形な特徴融合を促進する。
HAM10000データセットで92.81%の精度と92.47%のF1スコア、PAD-UFESデータセットで97.83%のF1スコア、91.79%のF1スコア、91.17%のF1スコアを示す。
論文 参考訳(メタデータ) (2025-08-17T19:57:34Z) - HOG-CNN: Integrating Histogram of Oriented Gradients with Convolutional Neural Networks for Retinal Image Classification [1.5939351525664014]
本稿では,HOG-CNNと呼ばれるハイブリッド特徴抽出モデルに基づく,自動的かつ解釈可能な臨床診断支援フレームワークを提案する。
私たちの重要な貢献は、手作りのHistogram of Oriented Gradients(HOG)機能とDeep Convolutional Neural Network(CNN)表現の統合です。
本モデルでは,2次DR分類では98.5%,2次DR分類では99.2AUC,5次DR分類では94.2AUCが得られた。
論文 参考訳(メタデータ) (2025-07-29T22:54:28Z) - Hybrid deep learning-based strategy for the hepatocellular carcinoma cancer grade classification of H&E stained liver histopathology images [2.833640239679924]
肝細胞癌(HCC)は肝癌の一種であり,早期診断が一般的である。
本稿では、トランスファーラーニングを用いて、事前学習された畳み込みニューラルネットワーク(CNN)モデルから特徴を抽出するハイブリッドディープラーニングベースのアーキテクチャを提案する。
提案したハイブリッドモデルでは,TCGA-LIHCおよびKMCデータベースの事前学習モデルよりも2%,4%の精度が向上した。
論文 参考訳(メタデータ) (2024-12-04T07:26:36Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Classification of Endoscopy and Video Capsule Images using CNN-Transformer Model [1.0994755279455526]
本研究では、トランスフォーマーと畳み込みニューラルネットワーク(CNN)の利点を組み合わせて分類性能を向上させるハイブリッドモデルを提案する。
GastroVisionデータセットでは,精度,リコール,F1スコア,精度,マシューズ相関係数(MCC)が0.8320,0.8386,0.8324,0.8386,0.8191であった。
論文 参考訳(メタデータ) (2024-08-20T11:05:32Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - CovidDeep: SARS-CoV-2/COVID-19 Test Based on Wearable Medical Sensors
and Efficient Neural Networks [51.589769497681175]
新型コロナウイルス(SARS-CoV-2)がパンデミックを引き起こしている。
SARS-CoV-2の逆転写-ポリメラーゼ連鎖反応に基づく現在の試験体制は、試験要求に追いついていない。
我々は,効率的なDNNと市販のWMSを組み合わせたCovidDeepというフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-20T21:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。