論文の概要: MOC: Meta-Optimized Classifier for Few-Shot Whole Slide Image Classification
- arxiv url: http://arxiv.org/abs/2508.09967v1
- Date: Wed, 13 Aug 2025 17:32:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.979294
- Title: MOC: Meta-Optimized Classifier for Few-Shot Whole Slide Image Classification
- Title(参考訳): MOC:Few-Shot全スライド画像分類のためのメタ最適化分類器
- Authors: Tianqi Xiang, Yi Li, Qixiang Zhang, Xiaomeng Li,
- Abstract要約: メタ言語基盤モデル(VLFM)は、ゼロショット適応による全スライド画像(WSI)分類において、データの不足に対処する上で有望であることを示す。
これらの手法は、大規模なデータセットで訓練された従来のマルチインスタンス学習(MIL)アプローチよりも優れています。
既存の少数ショット法では、限定アノテーションによる診断精度が向上しているが、従来の分類器の設計に依存しているため、データの不足に重大な脆弱性が生じる。
- 参考スコア(独自算出の注目度): 8.74505335529696
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in histopathology vision-language foundation models (VLFMs) have shown promise in addressing data scarcity for whole slide image (WSI) classification via zero-shot adaptation. However, these methods remain outperformed by conventional multiple instance learning (MIL) approaches trained on large datasets, motivating recent efforts to enhance VLFM-based WSI classification through fewshot learning paradigms. While existing few-shot methods improve diagnostic accuracy with limited annotations, their reliance on conventional classifier designs introduces critical vulnerabilities to data scarcity. To address this problem, we propose a Meta-Optimized Classifier (MOC) comprising two core components: (1) a meta-learner that automatically optimizes a classifier configuration from a mixture of candidate classifiers and (2) a classifier bank housing diverse candidate classifiers to enable a holistic pathological interpretation. Extensive experiments demonstrate that MOC outperforms prior arts in multiple few-shot benchmarks. Notably, on the TCGA-NSCLC benchmark, MOC improves AUC by 10.4% over the state-of-the-art few-shot VLFM-based methods, with gains up to 26.25% under 1-shot conditions, offering a critical advancement for clinical deployments where diagnostic training data is severely limited. Code is available at https://github.com/xmed-lab/MOC.
- Abstract(参考訳): 近年の病理組織学的視覚言語基盤モデル (VLFM) の進歩は, ゼロショット適応による全スライド画像(WSI)分類におけるデータ不足に対処する上で有望であることが示されている。
しかし、これらの手法は、大規模なデータセットで訓練された従来のマルチ・インスタンス・ラーニング(MIL)アプローチよりも優れており、近年のVLFMベースのWSI分類の強化への取り組みを、少額の学習パラダイムを通じて動機付けている。
既存の少数ショット法では、限定アノテーションによる診断精度が向上しているが、従来の分類器の設計に依存しているため、データの不足に重大な脆弱性が生じる。
この問題に対処するために,(1)候補分類器の混合から分類器の構成を自動的に最適化するメタラーナ,(2)多様な候補分類器を収容する分類器バンクの2つのコアコンポーネントからなるメタ最適化分類器(MOC)を提案する。
大規模な実験では、MOCは複数の数ショットのベンチマークで先行技術より優れていることが示されている。
特に、TCGA-NSCLCベンチマークにおいて、MOCは最先端の数発のVLFMベースの手法よりも10.4%改善し、1ショット条件で26.25%向上し、診断訓練データが著しく制限された臨床展開において重要な進歩をもたらす。
コードはhttps://github.com/xmed-lab/MOC.comで入手できる。
関連論文リスト
- AHDMIL: Asymmetric Hierarchical Distillation Multi-Instance Learning for Fast and Accurate Whole-Slide Image Classification [51.525891360380285]
AHDMILは非対称な階層的蒸留マルチインスタンス学習フレームワークである。
2段階のトレーニングプロセスを通じて、無関係なパッチを排除します。
分類性能と推論速度の両方において、従来の最先端手法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-08-07T07:47:16Z) - In-Context Learning for Label-Efficient Cancer Image Classification in Oncology [1.741659712094955]
In-context Learning (ICL) は、ドメイン固有の診断タスクに対するモデル再トレーニングの実用的な代替手段である。
視覚言語モデル(VLM)-Paligemma, CLIP, ALIGN, GPT-4o の評価を行った。
ICLは、サイズが小さいにもかかわらず競争力の向上を示し、計算に制約のある臨床環境への展開の可能性を示した。
論文 参考訳(メタデータ) (2025-05-08T20:49:01Z) - Unbiased Max-Min Embedding Classification for Transductive Few-Shot Learning: Clustering and Classification Are All You Need [83.10178754323955]
わずかなショットラーニングにより、モデルがいくつかのラベル付き例から一般化できる。
本稿では,Unbiased Max-Min Embedding Classification (UMMEC)法を提案する。
本手法は最小ラベル付きデータを用いて分類性能を著しく向上させ, 注釈付きLの最先端化を推し進める。
論文 参考訳(メタデータ) (2025-03-28T07:23:07Z) - Queryable Prototype Multiple Instance Learning with Vision-Language Models for Incremental Whole Slide Image Classification [10.667645628712542]
ホイルスライド画像(WSI)分類は臨床病理学に非常に重要な応用例である。
本稿では, 逐次WSI分類に特化して設計された, Queryable Prototype Multiple Instance Learning (QPMIL-VL) を用いた視覚言語ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-14T14:49:34Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Graph-Ensemble Learning Model for Multi-label Skin Lesion Classification
using Dermoscopy and Clinical Images [7.159532626507458]
本研究では,グラフ畳み込みネットワーク(GCN)を導入し,相関行列として各カテゴリ間の先行的共起を多ラベル分類のためのディープラーニングモデルに活用する。
本稿では,GCNからの予測を融合モデルからの予測の補完情報とみなすグラフ・アンサンブル学習モデルを提案する。
論文 参考訳(メタデータ) (2023-07-04T13:19:57Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Rectified Meta-Learning from Noisy Labels for Robust Image-based Plant
Disease Diagnosis [64.82680813427054]
植物病は食料安全保障と作物生産に対する主要な脅威の1つである。
1つの一般的なアプローチは、葉画像分類タスクとしてこの問題を変換し、強力な畳み込みニューラルネットワーク(CNN)によって対処できる。
本稿では,正規化メタ学習モジュールを共通CNNパラダイムに組み込んだ新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-17T09:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。