論文の概要: Multimodal Distillation-Driven Ensemble Learning for Long-Tailed Histopathology Whole Slide Images Analysis
- arxiv url: http://arxiv.org/abs/2503.00915v1
- Date: Sun, 02 Mar 2025 14:31:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:24:16.652857
- Title: Multimodal Distillation-Driven Ensemble Learning for Long-Tailed Histopathology Whole Slide Images Analysis
- Title(参考訳): 長手型病理組織像解析のための多モード蒸留駆動型アンサンブル学習
- Authors: Xitong Ling, Yifeng Ping, Jiawen Li, Jing Peng, Yuxuan Chen, Minxi Ouyang, Yizhi Wang, Yonghong He, Tian Guan, Xiaoping Liu, Lianghui Zhu,
- Abstract要約: マルチインスタンス学習(MIL)は計算病理学において重要な役割を担い、WSIデータセットの弱い教師付き分析を可能にする。
MILに基づくアンサンブル学習手法を提案し,共有アグリゲータを持つエキスパートデコーダを用いて多様な分布を学習する。
本稿では,病理文対に事前学習したテキストエンコーダを用いて知識を抽出するマルチモーダル蒸留フレームワークを提案する。
MDE-MILは,特定のデータ分布に着目した複数の専門分野を統合し,長期的課題に対処する。
- 参考スコア(独自算出の注目度): 16.01677300903562
- License:
- Abstract: Multiple Instance Learning (MIL) plays a significant role in computational pathology, enabling weakly supervised analysis of Whole Slide Image (WSI) datasets. The field of WSI analysis is confronted with a severe long-tailed distribution problem, which significantly impacts the performance of classifiers. Long-tailed distributions lead to class imbalance, where some classes have sparse samples while others are abundant, making it difficult for classifiers to accurately identify minority class samples. To address this issue, we propose an ensemble learning method based on MIL, which employs expert decoders with shared aggregators and consistency constraints to learn diverse distributions and reduce the impact of class imbalance on classifier performance. Moreover, we introduce a multimodal distillation framework that leverages text encoders pre-trained on pathology-text pairs to distill knowledge and guide the MIL aggregator in capturing stronger semantic features relevant to class information. To ensure flexibility, we use learnable prompts to guide the distillation process of the pre-trained text encoder, avoiding limitations imposed by specific prompts. Our method, MDE-MIL, integrates multiple expert branches focusing on specific data distributions to address long-tailed issues. Consistency control ensures generalization across classes. Multimodal distillation enhances feature extraction. Experiments on Camelyon+-LT and PANDA-LT datasets show it outperforms state-of-the-art methods.
- Abstract(参考訳): マルチインスタンス学習(MIL)は計算病理学において重要な役割を担い、WSIデータセットの弱い教師付き分析を可能にする。
WSI分析の分野は、分類器の性能に大きな影響を及ぼす深刻な長尾分布問題に直面している。
長い尾の分布は、いくつかのクラスがスパースサンプルを持ち、他のクラスが豊富であるクラスの不均衡を引き起こすため、分類器がマイノリティクラスサンプルを正確に識別することは困難である。
そこで本研究では,共有アグリゲータを持つエキスパートデコーダと一貫性制約を併用したMILに基づくアンサンブル学習手法を提案する。
さらに,本研究では,病理テキストペアに事前学習したテキストエンコーダを用いて知識を抽出し,MILアグリゲータを誘導し,クラス情報に関連するより強力な意味的特徴を捉えるマルチモーダル蒸留フレームワークを提案する。
柔軟性を確保するために、学習可能なプロンプトを使用して、事前訓練されたテキストエンコーダの蒸留過程をガイドし、特定のプロンプトによって課される制限を回避する。
MDE-MILは,特定のデータ分布に着目した複数の専門分野を統合し,長期的課題に対処する。
一貫性制御はクラス間の一般化を保証する。
マルチモーダル蒸留は特徴抽出を強化する。
Camelyon+-LTとPANDA-LTデータセットの実験では、最先端の手法よりも優れています。
関連論文リスト
- LESEN: Label-Efficient deep learning for Multi-parametric MRI-based
Visual Pathway Segmentation [5.726588626363204]
ラベル効率のよい自己認識型深層学習法(LESEN)を提案する。
LESENは教師なしと教師なしの損失を取り入れ、生徒と教師のモデルが相互に学習できるようにする。
ヒトコネクトームプロジェクト(HCP)のデータセットを用いた実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2024-01-03T10:22:13Z) - Towards Generalized Multi-stage Clustering: Multi-view Self-distillation [10.368796552760571]
既存のマルチステージクラスタリング手法は、独立して複数のビューから健全な特徴を学習し、クラスタリングタスクを実行する。
本稿では,多視点自己蒸留(DistilMVC)を導入し,ラベル分布の暗黒知識を抽出する多段階深層MVCフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-29T03:35:34Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - Learning Prompt-Enhanced Context Features for Weakly-Supervised Video
Anomaly Detection [37.99031842449251]
弱い監督下での映像異常検出は重大な課題を呈する。
本稿では,効率的なコンテキストモデリングとセマンティック識別性の向上に焦点をあてた,弱教師付き異常検出フレームワークを提案する。
提案手法は,特定の異常なサブクラスの検出精度を大幅に向上させ,その実用的価値と有効性を裏付けるものである。
論文 参考訳(メタデータ) (2023-06-26T06:45:16Z) - BatchFormer: Learning to Explore Sample Relationships for Robust
Representation Learning [93.38239238988719]
本稿では,各ミニバッチからサンプル関係を学習可能なディープニューラルネットワークを提案する。
BatchFormerは各ミニバッチのバッチ次元に適用され、トレーニング中のサンプル関係を暗黙的に探索する。
我々は10以上のデータセットに対して広範な実験を行い、提案手法は異なるデータ不足アプリケーションにおいて大幅な改善を実現する。
論文 参考訳(メタデータ) (2022-03-03T05:31:33Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。