論文の概要: SelfPrompt: Confidence-Aware Semi-Supervised Tuning for Robust Vision-Language Model Adaptation
- arxiv url: http://arxiv.org/abs/2501.14148v1
- Date: Fri, 24 Jan 2025 00:31:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:57:00.635585
- Title: SelfPrompt: Confidence-Aware Semi-Supervised Tuning for Robust Vision-Language Model Adaptation
- Title(参考訳): SelfPrompt:ロバスト視覚言語モデル適応のための信頼性を考慮した半教師付きチューニング
- Authors: Shuvendu Roy, Ali Etemad,
- Abstract要約: SelfPromptは、半教師付き学習環境における視覚言語モデル(VLM)の新しいプロンプトチューニング手法である。
疑似ラベル精度を向上させるクラスタ誘導擬似ラベリング手法を提案する。
また,信頼性を意識した半教師付き学習モジュールを提案する。
- 参考スコア(独自算出の注目度): 23.4909421082857
- License:
- Abstract: We present SelfPrompt, a novel prompt-tuning approach for vision-language models (VLMs) in a semi-supervised learning setup. Existing methods for tuning VLMs in semi-supervised setups struggle with the negative impact of the miscalibrated VLMs on pseudo-labelling, and the accumulation of noisy pseudo-labels. SelfPrompt addresses these challenges by introducing a cluster-guided pseudo-labelling method that improves pseudo-label accuracy, and a confidence-aware semi-supervised learning module that maximizes the utilization of unlabelled data by combining supervised learning and weakly-supervised learning. Additionally, we investigate our method in an active semi-supervised learning setup, where the labelled set is strategically selected to ensure the best utilization of a limited labelling budget. To this end, we propose a weakly-supervised sampling technique that selects a diverse and representative labelled set, which can be seamlessly integrated into existing methods to enhance their performance. We conduct extensive evaluations across 13 datasets, significantly surpassing state-of-the-art performances with average improvements of 6.23% in standard semi-supervised learning, 6.25% in active semi-supervised learning, and 4.9% in base-to-novel generalization, using a 2-shot setup. Furthermore, SelfPrompt shows excellent generalization in single-shot settings, achieving an average improvement of 11.78%.
- Abstract(参考訳): 本稿では,視覚言語モデル(VLM)を半教師付き学習環境に導入する,新しいプロンプトチューニング手法であるSelfPromptを提案する。
半教師付きセットアップにおける既存のVLMのチューニング方法は、誤校正されたVLMの擬似ラベリングに対する負の影響と、うるさい擬似ラベルの蓄積に苦慮している。
SelfPromptは、疑似ラベル精度を改善するクラスタ誘導擬似ラベリング手法と、教師付き学習と弱教師付き学習を組み合わせることで、ラベルなしデータの利用を最大化する信頼対応半教師付き学習モジュールを導入することで、これらの課題に対処する。
さらに,ラベル付き集合を戦略的に選択し,制限付きラベル付き予算を最大限活用するために,能動的半教師付き学習装置を用いて本手法について検討する。
そこで本研究では,多様で代表的なラベル付き集合を選択する弱教師付きサンプリング手法を提案する。
従来の半教師あり学習の6.23%,アクティブ半教師あり学習の6.25%,ベース・ツー・ノーベル一般化の4.9%を2ショット設定で行った。
さらに、SelfPromptはシングルショット設定で優れた一般化を示し、平均11.78%の改善を実現している。
関連論文リスト
- Maximally Separated Active Learning [32.98415531556376]
固定等角超球面点をクラスプロトタイプとして利用する能動的学習法を提案する。
5つのベンチマークデータセットにまたがる既存のアクティブラーニング技術よりも高いパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-11-26T14:02:43Z) - Dual-Decoupling Learning and Metric-Adaptive Thresholding for Semi-Supervised Multi-Label Learning [81.83013974171364]
半教師付きマルチラベル学習(SSMLL)は、正確なマルチラベルアノテーションを収集するコストを削減するために、ラベルのないデータを活用する強力なフレームワークである。
半教師付き学習とは異なり、インスタンスに含まれる複数のセマンティクスのため、SSMLLの擬似ラベルとして最も確率の高いラベルを選択することはできない。
本稿では,高品質な擬似ラベルを生成するための二重パースペクティブ手法を提案する。
論文 参考訳(メタデータ) (2024-07-26T09:33:53Z) - BAL: Balancing Diversity and Novelty for Active Learning [53.289700543331925]
多様な不確実なデータのバランスをとるために適応的なサブプールを構築する新しいフレームワークであるBalancing Active Learning (BAL)を導入する。
我々のアプローチは、広く認識されているベンチマークにおいて、確立されたすべてのアクティブな学習方法より1.20%優れています。
論文 参考訳(メタデータ) (2023-12-26T08:14:46Z) - Semi-Supervised Class-Agnostic Motion Prediction with Pseudo Label
Regeneration and BEVMix [59.55173022987071]
クラス非依存動作予測のための半教師あり学習の可能性について検討する。
我々のフレームワークは一貫性に基づく自己学習パラダイムを採用しており、ラベルのないデータからモデルを学習することができる。
本手法は,弱さと完全教師付き手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-12-13T09:32:50Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - Scaling Up Semi-supervised Learning with Unconstrained Unlabelled Data [27.75143621836449]
制約のないデータから効果的な表現を学習できる半教師付き学習フレームワークUnMixMatchを提案する。
4つの一般的なデータセットに対して広範な実験を行い、4.79%の性能向上を伴う既存の半教師付き手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-06-02T01:07:14Z) - Class-Aware Contrastive Semi-Supervised Learning [51.205844705156046]
本研究では,擬似ラベル品質を向上し,実環境におけるモデルの堅牢性を高めるため,CCSSL(Class-Aware Contrastive Semi-Supervised Learning)と呼ばれる一般的な手法を提案する。
提案するCCSSLは,標準データセットCIFAR100とSTL10の最先端SSLメソッドに対して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2022-03-04T12:18:23Z) - Improving Robustness and Efficiency in Active Learning with Contrastive
Loss [13.994967246046008]
本稿では,教師付き環境下での能動学習に比較学習の損失を生かして,教師付きコントラッシブ・アクティブ・ラーニング(SCAL)を提案する。
多様な特徴表現の偏りのない情報的データサンプルを選択するために,能動的学習における効率的なクエリ戦略を提案する。
論文 参考訳(メタデータ) (2021-09-13T21:09:21Z) - Semi-supervised Batch Active Learning via Bilevel Optimization [89.37476066973336]
両レベル最適化によるデータ要約問題として,本手法を定式化する。
本手法は,ラベル付きサンプルがほとんど存在しない場合,レジーム内のキーワード検出タスクにおいて極めて有効であることを示す。
論文 参考訳(メタデータ) (2020-10-19T16:53:24Z) - A Comprehensive Approach to Unsupervised Embedding Learning based on AND
Algorithm [18.670975246545208]
教師なしの埋め込み学習は、手動ラベルを必要とせずに、データから優れた表現を抽出することを目的としている。
本稿では,現在の最先端モデルを拡張したSuper-ANDと呼ばれる非教師なしの埋め込み手法を提案する。
Super-ANDは既存の全てのアプローチを上回り、CIFAR-10の画像分類タスクで89.2%の精度を達成する。
論文 参考訳(メタデータ) (2020-02-26T13:22:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。