論文の概要: VLM-CPL: Consensus Pseudo Labels from Vision-Language Models for Annotation-Free Pathological Image Classification
- arxiv url: http://arxiv.org/abs/2403.15836v3
- Date: Tue, 29 Jul 2025 02:33:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 14:59:50.672748
- Title: VLM-CPL: Consensus Pseudo Labels from Vision-Language Models for Annotation-Free Pathological Image Classification
- Title(参考訳): VLM-CPL: Annotation-free Pathological Image Classificationのための視覚言語モデルからの擬似ラベル
- Authors: Lanfeng Zhong, Zongyao Huang, Yang Liu, Wenjun Liao, Shichuan Zhang, Guotai Wang, Shaoting Zhang,
- Abstract要約: 事前学習型視覚言語モデル(VLM)を利用した新しいヒトアノテーションフリー手法を提案する。
VLM-CPLは、2つのノイズラベルフィルタリング技術と半教師付き学習戦略を含む新しい手法である。
パッチレベルおよびスライドレベル分類のための5つの公開病理画像データセットの実験結果から,本手法はVLMによるゼロショット分類を著しく上回った。
- 参考スコア(独自算出の注目度): 16.05109192966549
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classification of pathological images is the basis for automatic cancer diagnosis. Despite that deep learning methods have achieved remarkable performance, they heavily rely on labeled data, demanding extensive human annotation efforts. In this study, we present a novel human annotation-free method by leveraging pre-trained Vision-Language Models (VLMs). Without human annotation, pseudo-labels of the training set are obtained by utilizing the zero-shot inference capabilities of VLM, which may contain a lot of noise due to the domain gap between the pre-training and target datasets. To address this issue, we introduce VLM-CPL, a novel approach that contains two noisy label filtering techniques with a semi-supervised learning strategy. Specifically, we first obtain prompt-based pseudo-labels with uncertainty estimation by zero-shot inference with the VLM using multiple augmented views of an input. Then, by leveraging the feature representation ability of VLM, we obtain feature-based pseudo-labels via sample clustering in the feature space. Prompt-feature consensus is introduced to select reliable samples based on the consensus between the two types of pseudo-labels. We further propose High-confidence Cross Supervision by to learn from samples with reliable pseudo-labels and the remaining unlabeled samples. Additionally, we present an innovative open-set prompting strategy that filters irrelevant patches from whole slides to enhance the quality of selected patches. Experimental results on five public pathological image datasets for patch-level and slide-level classification showed that our method substantially outperformed zero-shot classification by VLMs, and was superior to existing noisy label learning methods. The code is publicly available at https://github.com/HiLab-git/VLM-CPL.
- Abstract(参考訳): 病理像の分類が癌診断の基盤となっている。
深層学習手法は目覚ましい性能を達成したが、ラベル付きデータに大きく依存しており、広範囲の人的アノテーションの努力を必要としている。
本研究では,VLM(Venture-Language Models)を利用した,人間のアノテーションのない新しい手法を提案する。
人間のアノテーションがなければ,事前学習データセットと目標データセットのドメインギャップによるノイズの多いVLMのゼロショット推論機能を利用することで,トレーニングセットの擬似ラベルを得ることができる。
この問題に対処するために,半教師付き学習戦略を備えた2つのノイズラベルフィルタリング技術を含む新しいアプローチであるVLM-CPLを導入する。
具体的には、入力の複数の拡張ビューを用いて、VLMによるゼロショット推論による不確実性を推定したプロンプトベースの擬似ラベルを得る。
そして,VLMの特徴表現能力を活用することで,特徴空間におけるサンプルクラスタリングによる特徴に基づく擬似ラベルを得る。
2種類の擬似ラベル間のコンセンサスに基づいて、信頼度の高いサンプルを選択するために、プロンプト・フィーチャー・コンセンサスを導入する。
さらに,信頼度の高いクロススーパービジョンを提案し,信頼度の高い擬似ラベルと残余の未ラベルのサンプルから学習する。
さらに、スライド全体から無関係なパッチをフィルタリングして、選択したパッチの品質を高める革新的なオープンセットプロンプト戦略を提案する。
パッチレベルおよびスライドレベル分類のための5つの公開病理画像データセットの実験結果から,本手法はVLMによるゼロショット分類を著しく上回り,既存のノイズラベル学習法よりも優れていた。
コードはhttps://github.com/HiLab-git/VLM-CPLで公開されている。
関連論文リスト
- Co-Training with Active Contrastive Learning and Meta-Pseudo-Labeling on 2D Projections for Deep Semi-Supervised Learning [42.56511266791916]
SSLはこの課題に対処し、ラベル付きで豊富なラベル付けされていないデータを活用する。
教師によるメタ擬似ラベリングとALを効果的に組み合わせた能動型DeepFAを提案する。
論文 参考訳(メタデータ) (2025-04-25T19:41:45Z) - CVOCSemRPL: Class-Variance Optimized Clustering, Semantic Information Injection and Restricted Pseudo Labeling based Improved Semi-Supervised Few-Shot Learning [4.3149314441871205]
ラベルのないサンプルは一般に入手するのに安価であり、モデルの数発の学習性能を改善するために使用することができる。
本稿では,クラス分散最適化クラスタリングを行う半教師付き少ショット学習のアプローチを提案する。
我々は,提案手法がベンチマークデータセットの最近の最先端手法を著しく上回っていることを実験的に実証した。
論文 参考訳(メタデータ) (2025-01-24T11:14:35Z) - Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - Candidate Pseudolabel Learning: Enhancing Vision-Language Models by Prompt Tuning with Unlabeled Data [9.132277138594652]
本研究では,未ラベルデータの多い視覚言語モデルに対して,Candidate Pseudolabel Learning法を提案する。
提案手法は,真のラベルインクルージョンとクラスバランスの取れたインスタンス選択において,性能が向上する可能性がある。
論文 参考訳(メタデータ) (2024-06-15T04:50:20Z) - Superpixelwise Low-rank Approximation based Partial Label Learning for Hyperspectral Image Classification [19.535446654147126]
キャプチャーされたハイパースペクトル画像(HSI)シーンの十分な事前知識は、専門家や自動ラベルシステムに誤ったラベルや曖昧なラベルを提供する可能性がある。
本稿では,新しい超画素単位の低ランク近似(LRA)に基づく部分ラベル学習法,SLAPを提案する。
論文 参考訳(メタデータ) (2024-05-27T12:26:49Z) - Uncertainty-Aware Pseudo-Label Filtering for Source-Free Unsupervised Domain Adaptation [45.53185386883692]
Source-free unsupervised domain adapt (SFUDA) は、訓練済みのソースモデルを、ソースデータにアクセスすることなく、ラベルなしのターゲットドメインで利用できるようにすることを目的としている。
本稿では,不確かさを意識したPseudo-label-filtering Adaptation (UPA) という手法を提案する。
論文 参考訳(メタデータ) (2024-03-17T16:19:40Z) - Appeal: Allow Mislabeled Samples the Chance to be Rectified in Partial Label Learning [55.4510979153023]
部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
誤記されたサンプルの「アペアル」を支援するため,最初の魅力に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-18T09:09:52Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Prompt-based Pseudo-labeling Strategy for Sample-Efficient Semi-Supervised Extractive Summarization [12.582774521907227]
半教師付き学習(SSL)は、ラベル付きデータが不足し、ラベルなしデータが豊富であるシナリオで広く使われているテクニックである。
標準SSLメソッドは、まず分類モデルをトレーニングし、次に分類器の信頼性値を使用して擬似ラベルを選択するために教師-学生パラダイムに従う。
より正確な擬似ラベルでラベルなしのサンプルを抽出するLLMを用いたプロンプトベースの擬似ラベル方式を提案する。
論文 参考訳(メタデータ) (2023-11-16T04:29:41Z) - Channel-Wise Contrastive Learning for Learning with Noisy Labels [60.46434734808148]
チャネルワイド・コントラッシブ・ラーニング(CWCL)を導入し,真正なラベル情報とノイズを区別する。
従来のインスタンス単位のコントラスト学習(IWCL)とは異なり、CWCLはよりニュアンスでレジリエントな特徴を真のラベルと一致させる傾向にある。
まずCWCLを用いて、クリーンにラベル付けされたサンプルを識別し、次に、これらのサンプルを段階的に微調整する。
論文 参考訳(メタデータ) (2023-08-14T06:04:50Z) - Pseudo-Labeled Auto-Curriculum Learning for Semi-Supervised Keypoint
Localization [88.74813798138466]
オブジェクトのキーポイントのローカライズは、基本的な視覚的問題である。
キーポイントローカライゼーションネットワークの教師付き学習は、しばしば大量のデータを必要とする。
本稿では,一連の動的しきい値を持つ信頼度の高い擬似ラベルサンプルを自動的に選択する。
論文 参考訳(メタデータ) (2022-01-21T09:51:58Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。