論文の概要: DeepHistoViT: An Interpretable Vision Transformer Framework for Histopathological Cancer Classification
- arxiv url: http://arxiv.org/abs/2603.11403v1
- Date: Thu, 12 Mar 2026 00:29:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.732043
- Title: DeepHistoViT: An Interpretable Vision Transformer Framework for Histopathological Cancer Classification
- Title(参考訳): DeepHistoViT: 病理組織学的癌分類のための解釈可能なビジョントランスフォーマフレームワーク
- Authors: Ravi Mosalpuri, Mohammed Abdelsamea, Ahmed Karam Eldaly,
- Abstract要約: 病理組織学は、組織形態の詳細な細胞レベル評価を提供するため、がん診断のゴールドスタンダードのままである。
近年の深層学習の進歩は、医療画像における複雑な空間依存をモデル化する強力な可能性を示している。
組織像の自動分類のためのトランスフォーマーベースのフレームワークであるDeepHistoViTを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Histopathology remains the gold standard for cancer diagnosis because it provides detailed cellular-level assessment of tissue morphology. However, manual histopathological examination is time-consuming, labour-intensive, and subject to inter-observer variability, creating a demand for reliable computer-assisted diagnostic tools. Recent advances in deep learning, particularly transformer-based architectures, have shown strong potential for modelling complex spatial dependencies in medical images. In this work, we propose DeepHistoViT, a transformer-based framework for automated classification of histopathological images. The model employs a customized Vision Transformer architecture with an integrated attention mechanism designed to capture fine-grained cellular structures while improving interpretability through attention-based localization of diagnostically relevant regions. The framework is evaluated on three publicly available histopathology datasets covering lung cancer, colon cancer, and acute lymphoblastic leukaemia. Experimental results demonstrate state-of-the-art performance across all datasets, with classification accuracy, precision, recall, F1-score, and ROC-AUC reaching 100 percent on the lung and colon cancer datasets, and 99.85 percent, 99.84 percent, 99.86 percent, 99.85 percent, and 99.99 percent respectively on the acute lymphoblastic leukaemia dataset. All performance metrics are reported with 95 percent confidence intervals. These results highlight the effectiveness of transformer-based architectures for histopathological image analysis and demonstrate the potential of DeepHistoViT as an interpretable computer-assisted diagnostic tool to support pathologists in clinical decision-making.
- Abstract(参考訳): 病理組織学は、組織形態の詳細な細胞レベル評価を提供するため、がん診断のゴールドスタンダードのままである。
しかし、手動の病理組織学的検査は時間がかかり、労働集約的であり、サーバ間の変動が伴うため、信頼性の高いコンピュータ支援診断ツールが要求される。
近年のディープラーニング,特にトランスフォーマーアーキテクチャの進歩は,医療画像における複雑な空間依存をモデル化する可能性を示している。
本研究では,組織像の自動分類のためのトランスフォーマーベースのフレームワークであるDeepHistoViTを提案する。
このモデルは、微粒な細胞構造を捉えつつ、診断関連領域の注意に基づく局所化による解釈性を改善しつつ、統合された注意機構を備えた、カスタマイズされたビジョントランスフォーマーアーキテクチャを採用している。
本フレームワークは, 肺癌, 大腸癌, 急性リンパ性白血病を対象とする3種類の病理組織学的データセットを用いて評価した。
実験の結果、分類精度、精度、リコール、F1スコア、ROC-AUCが肺と大腸癌のデータセットで100%、99.85パーセント、99.84パーセント、99.86パーセント、99.85パーセント、99.99パーセント、それぞれ急性リンパ性白血病データセットで99.99パーセントに達した。
すべてのパフォーマンス指標は95%の信頼区間で報告されます。
これらの結果は, 病理組織像解析におけるトランスフォーマー・ベースのアーキテクチャの有効性を強調し, 臨床診断における病理医を支援するためのコンピュータ支援診断ツールとしてのDeepHistoViTの可能性を示した。
関連論文リスト
- A Semantically Enhanced Generative Foundation Model Improves Pathological Image Synthesis [82.01597026329158]
本稿では,組織合成のための相関調整フレームワーク(CRAFTS)について紹介する。
CRAFTSは、生物学的精度を確保するためにセマンティックドリフトを抑制する新しいアライメント機構を組み込んでいる。
本モデルは,30種類の癌にまたがる多彩な病理像を生成する。
論文 参考訳(メタデータ) (2025-12-15T10:22:43Z) - Automated Histopathologic Assessment of Hirschsprung Disease Using a Multi-Stage Vision Transformer Framework [2.360330081206126]
Hirschsprung病は腸間膜叢に神経節細胞が欠如していることが特徴である。
病理医の診断アプローチを模倣したビジョントランスフォーマー(ViT-B/16)に基づく3段階セグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-25T15:53:47Z) - A Disease-Centric Vision-Language Foundation Model for Precision Oncology in Kidney Cancer [54.58205672910646]
RenalCLIPは、腎腫瘤の特徴、診断、予後のための視覚言語基盤モデルである。
腎がんの完全な臨床ワークフローにまたがる10のコアタスクにおいて、優れたパフォーマンスと優れた一般化性を実現した。
論文 参考訳(メタデータ) (2025-08-22T17:48:19Z) - HistoViT: Vision Transformer for Accurate and Scalable Histopathological Cancer Diagnosis [1.5939351525664014]
マルチクラス腫瘍分類のためのトランスフォーマーに基づくディープラーニングフレームワークを提案する。
本手法は従来の畳み込みニューラルネットワークの限界に対処する。
アプローチ分類では, 乳がん, 前立腺癌, 骨癌, 頸部癌が99.32%, 96.92%, 95.28%, 96.94%であった。
論文 参考訳(メタデータ) (2025-08-15T03:10:52Z) - RadFabric: Agentic AI System with Reasoning Capability for Radiology [61.25593938175618]
RadFabricは、総合的なCXR解釈のための視覚的およびテキスト分析を統合するマルチエージェント、マルチモーダル推論フレームワークである。
システムは、病理診断に特殊なCXRエージェント、正確な解剖学的構造に視覚所見をマッピングする解剖学的解釈エージェント、および視覚的、解剖学的、臨床データを透明かつ証拠に基づく診断に合成する大規模なマルチモーダル推論モデルを利用した推論エージェントを使用する。
論文 参考訳(メタデータ) (2025-06-17T03:10:33Z) - Towards Accurate and Interpretable Neuroblastoma Diagnosis via Contrastive Multi-scale Pathological Image Analysis [16.268045905735818]
病理画像分類に適したコントラスト学習に基づくマルチスケール機能融合モデルであるCMSwinKANを提案する。
マルチスケールの特徴を融合させ、対照的な学習戦略を活用することで、CMSwinKANは臨床医の包括的なアプローチを模倣する。
その結果、CMSwinKANは、既存の最先端の病理モデルよりも、大規模なデータセットで事前訓練されたモデルよりもパフォーマンスがよいことが示された。
論文 参考訳(メタデータ) (2025-04-18T15:39:46Z) - PathOrchestra: A Comprehensive Foundation Model for Computational Pathology with Over 100 Diverse Clinical-Grade Tasks [39.97710183184273]
本稿では,300Kの病理スライドからなるデータセット上で,自己教師型学習を通じて学習した多種多様な病理基盤モデルPathOrchestraを提案する。
このモデルは、61のプライベートデータセットと51のパブリックデータセットを組み合わせて、112の臨床的タスクで厳格に評価された。
PathOrchestraは27,755のWSIと9,415,729のROIで例外的なパフォーマンスを示し、47のタスクで0.950以上の精度を達成した。
論文 参考訳(メタデータ) (2025-03-31T17:28:02Z) - Meta-information-aware Dual-path Transformer for Differential Diagnosis
of Multi-type Pancreatic Lesions in Multi-phase CT [41.199716328468895]
膵病変の分類と分節の可能性を活用するために, デュアルパストランスフォーマーを開発した。
提案手法は, CNN-based segmentation path (S-path) と Transformer-based classification path (C-path) から構成される。
以上の結果から,膵病変の完全分類の正確な分類と分類が可能であることが示唆された。
論文 参考訳(メタデータ) (2023-03-02T03:34:28Z) - Histogram of Cell Types: Deep Learning for Automated Bone Marrow
Cytology [3.8385120184415418]
細胞型ヒストグラム(HCT)は骨髄のクラス分布の新規な表現である。
HCTは、血液病理診断に革命をもたらす可能性があり、よりコスト効率が高く、正確な診断をもたらし、正確な医療を行うための扉を開く。
論文 参考訳(メタデータ) (2021-07-05T21:55:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。