論文の概要: HistoViT: Vision Transformer for Accurate and Scalable Histopathological Cancer Diagnosis
- arxiv url: http://arxiv.org/abs/2508.11181v1
- Date: Fri, 15 Aug 2025 03:10:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.724041
- Title: HistoViT: Vision Transformer for Accurate and Scalable Histopathological Cancer Diagnosis
- Title(参考訳): HistoViT: 正確にかつスケーラブルな病理組織診断のための視覚変換器
- Authors: Faisal Ahmed,
- Abstract要約: マルチクラス腫瘍分類のためのトランスフォーマーに基づくディープラーニングフレームワークを提案する。
本手法は従来の畳み込みニューラルネットワークの限界に対処する。
アプローチ分類では, 乳がん, 前立腺癌, 骨癌, 頸部癌が99.32%, 96.92%, 95.28%, 96.94%であった。
- 参考スコア(独自算出の注目度): 1.5939351525664014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate and scalable cancer diagnosis remains a critical challenge in modern pathology, particularly for malignancies such as breast, prostate, bone, and cervical, which exhibit complex histological variability. In this study, we propose a transformer-based deep learning framework for multi-class tumor classification in histopathological images. Leveraging a fine-tuned Vision Transformer (ViT) architecture, our method addresses key limitations of conventional convolutional neural networks, offering improved performance, reduced preprocessing requirements, and enhanced scalability across tissue types. To adapt the model for histopathological cancer images, we implement a streamlined preprocessing pipeline that converts tiled whole-slide images into PyTorch tensors and standardizes them through data normalization. This ensures compatibility with the ViT architecture and enhances both convergence stability and overall classification performance. We evaluate our model on four benchmark datasets: ICIAR2018 (breast), SICAPv2 (prostate), UT-Osteosarcoma (bone), and SipakMed (cervical) dataset -- demonstrating consistent outperformance over existing deep learning methods. Our approach achieves classification accuracies of 99.32%, 96.92%, 95.28%, and 96.94% for breast, prostate, bone, and cervical cancers respectively, with area under the ROC curve (AUC) scores exceeding 99% across all datasets. These results confirm the robustness, generalizability, and clinical potential of transformer-based architectures in digital pathology. Our work represents a significant advancement toward reliable, automated, and interpretable cancer diagnosis systems that can alleviate diagnostic burdens and improve healthcare outcomes.
- Abstract(参考訳): 特に乳腺、前立腺、骨、頸部などの悪性腫瘍では、複雑な組織学的多様性を示す。
本研究では,病理組織像におけるマルチクラス腫瘍分類のためのトランスフォーマーに基づくディープラーニングフレームワークを提案する。
我々の方法では、微調整されたビジョントランスフォーマー(ViT)アーキテクチャを利用することで、従来の畳み込みニューラルネットワークの重要な制限に対処し、パフォーマンスの向上、前処理要件の削減、組織タイプ間のスケーラビリティの向上を実現している。
病理組織学的癌像のモデルに適応するため,スライディングした全スライディング画像をPyTorchテンソルに変換し,データ正規化により標準化する合理化前処理パイプラインを実装した。
これにより、ViTアーキテクチャとの互換性が保証され、収束安定性と全体的な分類性能が向上する。
ICIAR2018 (breast), SICAPv2 (prostate), UT-Osteosarcoma (bone), SipakMed (cervical) の4つのベンチマークデータセットを用いて,既存のディープラーニング手法に対する一貫したパフォーマンスを示す。
本研究は, 乳がん, 前立腺癌, 骨癌, 頸部癌に対する99.32%, 96.92%, 95.28%, 96.94%, ROC曲線 (AUC) 以下の領域は全データセットで99%以上である。
これらの結果は,デジタル病理学におけるトランスフォーマーアーキテクチャの堅牢性,一般化可能性,臨床可能性を確認するものである。
我々の研究は、診断の負担を軽減し、医療結果を改善することのできる、信頼性、自動化、解釈可能ながん診断システムへの大きな進歩を示している。
関連論文リスト
- Towards Accurate and Interpretable Neuroblastoma Diagnosis via Contrastive Multi-scale Pathological Image Analysis [16.268045905735818]
病理画像分類に適したコントラスト学習に基づくマルチスケール機能融合モデルであるCMSwinKANを提案する。
マルチスケールの特徴を融合させ、対照的な学習戦略を活用することで、CMSwinKANは臨床医の包括的なアプローチを模倣する。
その結果、CMSwinKANは、既存の最先端の病理モデルよりも、大規模なデータセットで事前訓練されたモデルよりもパフォーマンスがよいことが示された。
論文 参考訳(メタデータ) (2025-04-18T15:39:46Z) - GS-TransUNet: Integrated 2D Gaussian Splatting and Transformer UNet for Accurate Skin Lesion Analysis [44.99833362998488]
本稿では,2次元ガウススプラッティングとTransformer UNetアーキテクチャを組み合わせた皮膚癌自動診断手法を提案する。
セグメンテーションと分類の精度は著しく向上した。
この統合は、新しいベンチマークをこの分野に設定し、マルチタスク医療画像解析手法のさらなる研究の可能性を強調している。
論文 参考訳(メタデータ) (2025-02-23T23:28:47Z) - Evaluation of Vision Transformers for Multimodal Image Classification: A Case Study on Brain, Lung, and Kidney Tumors [0.0]
この研究は、MRIおよびCTスキャンのいくつかのデータセットにおいて、Swin TransformerやMaxViTを含むVision Transformersアーキテクチャのパフォーマンスを評価する。
その結果、Swin Transformerは高い精度を示し、個々のデータセットの平均で99%、組み合わせたデータセットで99.4%の精度を実現した。
論文 参考訳(メタデータ) (2025-02-08T10:35:51Z) - Synthetic CT image generation from CBCT: A Systematic Review [44.01505745127782]
深層学習法を用いたコーンビームCT(CBCT)データから合成CT(sCT)画像を生成することは,放射線腫瘍学における重要な進歩である。
sCT 生成における深層学習アプローチの頻度を明らかにするため,35 件の関連研究を同定,解析した。
論文 参考訳(メタデータ) (2025-01-22T13:54:07Z) - Advanced Hybrid Deep Learning Model for Enhanced Classification of Osteosarcoma Histopathology Images [0.0]
本研究は, 小児および思春期において最も多い骨癌である骨肉腫(OS)に焦点を当て, 腕と足の長い骨に影響を及ぼす。
我々は、OSの診断精度を向上させるために、畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)を組み合わせた新しいハイブリッドモデルを提案する。
このモデルは精度99.08%、精度99.10%、リコール99.28%、F1スコア99.23%を達成した。
論文 参考訳(メタデータ) (2024-10-29T13:54:08Z) - Classification of lung cancer subtypes on CT images with synthetic
pathological priors [41.75054301525535]
同症例のCT像と病理像との間には,画像パターンに大規模な関連性が存在する。
肺がんサブタイプをCT画像上で正確に分類するための自己生成型ハイブリッド機能ネットワーク(SGHF-Net)を提案する。
論文 参考訳(メタデータ) (2023-08-09T02:04:05Z) - Meta-information-aware Dual-path Transformer for Differential Diagnosis
of Multi-type Pancreatic Lesions in Multi-phase CT [41.199716328468895]
膵病変の分類と分節の可能性を活用するために, デュアルパストランスフォーマーを開発した。
提案手法は, CNN-based segmentation path (S-path) と Transformer-based classification path (C-path) から構成される。
以上の結果から,膵病変の完全分類の正確な分類と分類が可能であることが示唆された。
論文 参考訳(メタデータ) (2023-03-02T03:34:28Z) - Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation [48.504790189796836]
我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
論文 参考訳(メタデータ) (2020-05-27T06:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。