論文の概要: Patch-Level Glioblastoma Subregion Classification with a Contrastive Learning-Based Encoder
- arxiv url: http://arxiv.org/abs/2511.20221v1
- Date: Tue, 25 Nov 2025 11:49:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.434153
- Title: Patch-Level Glioblastoma Subregion Classification with a Contrastive Learning-Based Encoder
- Title(参考訳): Contrastive Learning-based Encoder を用いたパッチレベルGlioblastomaサブリージョン分類
- Authors: Juexin Zhang, Qifeng Zhong, Ying Weng, Ke Chen,
- Abstract要約: 我々は、トレーニングデータセット上に、専用の分類ヘッドを持つ事前訓練されたビジョントランスフォーマー(ViT)エンコーダを微調整する手法を開発した。
Synapseプラットフォームを用いて評価したオンライン検証セットの性能は, マシューズ相関係数0.7064, F1スコア0.7676を得た。
最終テストセットでは、MCC 0.6509、F1スコア 0.5330を達成し、BraTS-Pathology 2025 Challengeでチーム2位となった。
- 参考スコア(独自算出の注目度): 8.220201308071614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The significant molecular and pathological heterogeneity of glioblastoma, an aggressive brain tumor, complicates diagnosis and patient stratification. While traditional histopathological assessment remains the standard, deep learning offers a promising path toward objective and automated analysis of whole slide images. For the BraTS-Path 2025 Challenge, we developed a method that fine-tunes a pre-trained Vision Transformer (ViT) encoder with a dedicated classification head on the official training dataset. Our model's performance on the online validation set, evaluated via the Synapse platform, yielded a Matthews Correlation Coefficient (MCC) of 0.7064 and an F1-score of 0.7676. On the final test set, the model achieved an MCC of 0.6509 and an F1-score of 0.5330, which secured our team second place in the BraTS-Pathology 2025 Challenge. Our results establish a solid baseline for ViT-based histopathological analysis, and future efforts will focus on bridging the performance gap observed on the unseen validation data.
- Abstract(参考訳): 発作性脳腫瘍であるグリオ芽腫の分子学的および病理学的多様性は,診断と患者層形成を複雑にしている。
従来の病理組織学的評価は依然として標準であるが、ディープラーニングはスライド画像全体に対する客観的かつ自動的な分析に向けて有望な道筋を提供する。
BraTS-Path 2025 Challengeでは、トレーニング済みのビジョントランスフォーマー(ViT)エンコーダを、公式トレーニングデータセットに専用の分類ヘッドで微調整する手法を開発した。
Synapseプラットフォームを用いて評価したオンライン検証セットの性能は, マシューズ相関係数0.7064, F1スコア0.7676を得た。
最終テストセットでは、MCC 0.6509、F1スコア 0.5330を達成し、BraTS-Pathology 2025 Challengeでチーム2位となった。
以上の結果から,ViTを用いた病理組織学的解析の基盤線が確立され,今後は未確認のバリデーションデータに観察されるパフォーマンスギャップを埋めることに注力する。
関連論文リスト
- Classifying Histopathologic Glioblastoma Sub-regions with EfficientNet [0.6507401132790146]
Glioblastoma (GBM) は攻撃性で急速に増殖する脳腫瘍で、グリム予後を示す。
6つの組織領域を分類し,BraTS-Path 2024チャレンジデータセットで定量的に評価する4段階の深層学習手法を考案した。
EfficientNet-B1とEfficientNet-B4は5倍のクロスバリデーション構成でF1スコア0.98を達成した。
論文 参考訳(メタデータ) (2025-11-12T02:14:23Z) - MIDOG 2025 Track 2: A Deep Learning Model for Classification of Atypical and Normal Mitotic Figures under Class and Hardness Imbalances [0.0]
本稿では,ResNetのバックボーンをベースとした新しいディープラーニング手法を提案する。
我々のアーキテクチャは、ミトティックフィギュア表現型とインスタンスの難易度を同時にモデル化する。
論文 参考訳(メタデータ) (2025-09-01T15:12:05Z) - Deep Learning for Glioblastoma Morpho-pathological Features Identification: A BraTS-Pathology Challenge Solution [5.347187213114967]
我々は2024年のBraTS-Path Challengeにアプローチを提示する。
トレーニング済みのモデルを活用して、BraTS-Pathトレーニングデータセットに微調整します。
我々のモデルは0.898704の完全特異性を示し、負のケースを正しく分類する特別な能力を示している。
論文 参考訳(メタデータ) (2025-07-24T06:47:23Z) - TUMLS: Trustful Fully Unsupervised Multi-Level Segmentation for Whole Slide Images of Histology [41.94295877935867]
We present a Trustful fully unsupervised multi-level segmentation method (TUMLS) for whole slide image (WSIs)。
TUMLSは、低解像度のトレーニングデータの中で異なる組織タイプを特定するために、オートエンコーダ(AE)を特徴抽出器として採用している。
このソリューションは、臨床医にシームレスに統合され、WSI全体の検査を簡潔で解釈可能なクロスレベル洞察のレビューに変換する。
論文 参考訳(メタデータ) (2025-04-17T07:48:05Z) - The Skin Game: Revolutionizing Standards for AI Dermatology Model Comparison [0.6144680854063939]
皮膚画像分類における深層学習アプローチは有望な結果を示しているが、適切な評価を妨げる重要な方法論的課題に直面している。
本稿では、皮膚疾患分類研究における現在の方法論の体系的分析を行い、データ準備、強化戦略、パフォーマンス報告におけるかなりの不整合を明らかにした。
本稿では、厳密なデータ準備、系統的誤り解析、異なる画像タイプのための特別なプロトコルを強調し、モデル開発、評価、臨床展開のための包括的な方法論的勧告を提案する。
論文 参考訳(メタデータ) (2025-02-04T17:15:36Z) - Virchow: A Million-Slide Digital Pathology Foundation Model [34.38679208931425]
本稿では,コンピュータ病理学の基礎モデルであるVirchowを紹介する。
Virchowは、150万のヘマトキシリンとエオシン染色されたスライドイメージに基づいて、632万のパラメータをトレーニングしたビジョントランスフォーマーモデルである。
論文 参考訳(メタデータ) (2023-09-14T15:09:35Z) - Significantly improving zero-shot X-ray pathology classification via fine-tuning pre-trained image-text encoders [50.689585476660554]
本稿では,正対損失緩和とランダムな文サンプリングを含む新たな微調整手法を提案する。
提案手法は,胸部X線データセットと3つの事前訓練モデル間のゼロショット病理分類を一貫して改善する。
論文 参考訳(メタデータ) (2022-12-14T06:04:18Z) - Mitosis Detection, Fast and Slow: Robust and Efficient Detection of
Mitotic Figures [3.047950378303433]
そこで本研究では,ミトーシス候補セグメンテーションと候補精錬段階を含む,堅牢で効率的な2段階ミトーシス検出フレームワークを提案する。
EUNetは、候補を低い解像度で正確にセグメント化して、候補検出を大幅に高速化することができる。
本稿では,3つの大規模公用ミトーシスデータセットに対して,提案モデルの性能と一般化性を示す。
論文 参考訳(メタデータ) (2022-08-26T11:14:59Z) - Self-supervised contrastive learning of echocardiogram videos enables
label-efficient cardiac disease diagnosis [48.64462717254158]
心エコービデオを用いた自己教師型コントラスト学習手法であるエコーCLRを開発した。
左室肥大症 (LVH) と大動脈狭窄症 (AS) の分類成績は,EchoCLR の訓練により有意に改善した。
EchoCLRは、医療ビデオの表現を学習する能力に特有であり、SSLがラベル付きデータセットからラベル効率の高い疾患分類を可能にすることを実証している。
論文 参考訳(メタデータ) (2022-07-23T19:17:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。