論文の概要: Efficient Breast and Ovarian Cancer Classification via ViT-Based Preprocessing and Transfer Learning
- arxiv url: http://arxiv.org/abs/2509.18553v1
- Date: Tue, 23 Sep 2025 02:25:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.653479
- Title: Efficient Breast and Ovarian Cancer Classification via ViT-Based Preprocessing and Transfer Learning
- Title(参考訳): ViT-based preprocessing and Transfer Learning を用いた乳癌・卵巣癌の効率的な分類
- Authors: Richa Rawat, Faisal Ahmed,
- Abstract要約: 乳腺癌と卵巣癌を診断・分類するための新しい視覚変換器(ViT)を提案する。
プリトレーニングされたViT-Base-Patch16-224モデルを使用し、バイナリとマルチクラスの両方の分類タスクを微調整する。
我々のモデルは、既存のCNN、ViT、および2進分類におけるトポロジ的データ解析に基づくアプローチを超越している。
- 参考スコア(独自算出の注目度): 0.7088460451473201
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cancer is one of the leading health challenges for women, specifically breast and ovarian cancer. Early detection can help improve the survival rate through timely intervention and treatment. Traditional methods of detecting cancer involve manually examining mammograms, CT scans, ultrasounds, and other imaging types. However, this makes the process labor-intensive and requires the expertise of trained pathologists. Hence, making it both time-consuming and resource-intensive. In this paper, we introduce a novel vision transformer (ViT)-based method for detecting and classifying breast and ovarian cancer. We use a pre-trained ViT-Base-Patch16-224 model, which is fine-tuned for both binary and multi-class classification tasks using publicly available histopathological image datasets. Further, we use a preprocessing pipeline that converts raw histophological images into standardized PyTorch tensors, which are compatible with the ViT architecture and also help improve the model performance. We evaluated the performance of our model on two benchmark datasets: the BreakHis dataset for binary classification and the UBC-OCEAN dataset for five-class classification without any data augmentation. Our model surpasses existing CNN, ViT, and topological data analysis-based approaches in binary classification. For multi-class classification, it is evaluated against recent topological methods and demonstrates superior performance. Our study highlights the effectiveness of Vision Transformer-based transfer learning combined with efficient preprocessing in oncological diagnostics.
- Abstract(参考訳): がんは女性、特に乳がんと卵巣がんにとって主要な健康上の課題の1つである。
早期発見は、タイムリーな介入と治療を通じて生存率を改善するのに役立つ。
従来のがん検出法では、マンモグラム、CTスキャン、超音波、その他のイメージングタイプを手動で検査する。
しかし、これは労働集約的なプロセスであり、訓練された病理学者の専門知識を必要とする。
したがって、時間とリソース集約の両方を消費する。
本稿では,乳腺癌と卵巣癌を診断・分類するための新しい視覚変換器(ViT)を提案する。
我々は,VT-Base-Patch16-224モデルを用いて,病理組織学的画像データセットを用いて,バイナリとマルチクラスの両方の分類タスクを微調整する。
さらに、生のヒストフォロジー画像を標準のPyTorchテンソルに変換する前処理パイプラインを用い、ViTアーキテクチャと互換性があり、モデル性能の向上にも寄与する。
本研究では,2値分類のためのBreakHisデータセットと5値分類のためのUBC-OCEANデータセットの2つのベンチマークデータセットを用いて,モデルの性能評価を行った。
我々のモデルは、既存のCNN、ViT、および2進分類におけるトポロジ的データ解析に基づくアプローチを超越している。
多クラス分類では、最近のトポロジカル手法に対して評価され、優れた性能を示す。
本研究は,視覚トランスフォーマーを用いたトランスファー学習と,腫瘍診断における効率的な前処理の併用の有効性について述べる。
関連論文リスト
- HistoViT: Vision Transformer for Accurate and Scalable Histopathological Cancer Diagnosis [1.5939351525664014]
マルチクラス腫瘍分類のためのトランスフォーマーに基づくディープラーニングフレームワークを提案する。
本手法は従来の畳み込みニューラルネットワークの限界に対処する。
アプローチ分類では, 乳がん, 前立腺癌, 骨癌, 頸部癌が99.32%, 96.92%, 95.28%, 96.94%であった。
論文 参考訳(メタデータ) (2025-08-15T03:10:52Z) - The Efficacy of Semantics-Preserving Transformations in Self-Supervised Learning for Medical Ultrasound [60.80780313225093]
本研究は, 肺超音波の自己教師あり学習におけるデータ拡張と前処理方略の影響を系統的に検討した。
画像領域に共通して使用されるベースラインパイプライン、超音波用に設計された新しいセマンティック保存パイプライン、両方のパイプラインから最も効果的な変換の蒸留セットの3つのデータ拡張パイプラインが評価された。
論文 参考訳(メタデータ) (2025-04-10T16:26:47Z) - Pathological Prior-Guided Multiple Instance Learning For Mitigating Catastrophic Forgetting in Breast Cancer Whole Slide Image Classification [50.899861205016265]
乳癌のWSI分類における破滅的忘れを緩和する新しい枠組みであるPaGMILを提案する。
私たちのフレームワークでは、共通のMILモデルアーキテクチャに2つの重要なコンポーネントを導入しています。
複数の乳がんデータセットを対象としたPaGMILの連続学習性能の評価を行った。
論文 参考訳(メタデータ) (2025-03-08T04:51:58Z) - Transformer-Based Self-Supervised Learning for Histopathological Classification of Ischemic Stroke Clot Origin [0.0]
虚血性脳卒中における血栓塞栓源の同定は治療と二次予防に不可欠である。
本研究は,虚血性脳梗塞の発生源を分類するためのエンボリのデジタル病理学における自己教師型深層学習アプローチについて述べる。
論文 参考訳(メタデータ) (2024-05-01T23:40:12Z) - Application of Transfer Learning and Ensemble Learning in Image-level
Classification for Breast Histopathology [9.037868656840736]
CAD(Computer-Aided Diagnosis)では、従来の分類モデルでは、主に1つのネットワークを使って特徴を抽出する。
本稿では良性病変と悪性病変のバイナリ分類のための画像レベルラベルに基づく深層アンサンブルモデルを提案する。
結果: アンサンブルネットワークモデルにおいて、画像レベルのバイナリ分類は9,8.90%の精度を達成する。
論文 参考訳(メタデータ) (2022-04-18T13:31:53Z) - DeFungi: Direct Mycological Examination of Microscopic Fungi Images [0.0]
本稿では,2つの異なる深層学習手法と3つの畳み込みニューラルネットワークモデルを用いて,5種類の菌類を分類した実験結果を提案する。
スクラッチから訓練された最高の性能モデルはインセプションV3であり、精度は73.2%だった。
構築されたデータセットは、将来の研究を促進するために、KaggleとGitHubで公開されている。
論文 参考訳(メタデータ) (2021-09-15T14:25:28Z) - Cross-Site Severity Assessment of COVID-19 from CT Images via Domain
Adaptation [64.59521853145368]
CT画像によるコロナウイルス病2019(COVID-19)の早期かつ正確な重症度評価は,集中治療単位のイベント推定に有効である。
ラベル付きデータを拡張し、分類モデルの一般化能力を向上させるためには、複数のサイトからデータを集約する必要がある。
この課題は、軽度の感染症と重度の感染症の集団不均衡、部位間のドメイン分布の相違、不均一な特徴の存在など、いくつかの課題に直面する。
論文 参考訳(メタデータ) (2021-09-08T07:56:51Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - A Deep Learning Study on Osteosarcoma Detection from Histological Images [6.341765152919201]
最も一般的な悪性骨腫瘍は骨肉腫である。
CNNは、外科医の作業量を著しく減らし、患者の状態の予後を良くする。
CNNは、より信頼できるパフォーマンスを達成するために、大量のデータをトレーニングする必要があります。
論文 参考訳(メタデータ) (2020-11-02T18:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。