論文の概要: CRoF: CLIP-based Robust Few-shot Learning on Noisy Labels
- arxiv url: http://arxiv.org/abs/2412.12793v1
- Date: Tue, 17 Dec 2024 10:56:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:58:36.045238
- Title: CRoF: CLIP-based Robust Few-shot Learning on Noisy Labels
- Title(参考訳): CRoF:CLIPベースのノイズラベルによるロバストショット学習
- Authors: Shizhuo Deng, Bowen Han, Jiaqi Chen, Hao Wang, Dongyue Chen, Tong Jia,
- Abstract要約: ノイズラベルは、新しいドメインにおける不正確な特徴のために、数発の学習の頑丈さを脅かす。
雑音ラベル,CLIPベースのRobst Few-shot Learning(CRoF)の影響を緩和する新しい視点を提供する。
CRoFはCLIPベースのモデルのための一般的なプラグインモジュールである。
- 参考スコア(独自算出の注目度): 12.69583354123737
- License:
- Abstract: Noisy labels threaten the robustness of few-shot learning (FSL) due to the inexact features in a new domain. CLIP, a large-scale vision-language model, performs well in FSL on image-text embedding similarities, but it is susceptible to misclassification caused by noisy labels. How to enhance domain generalization of CLIP on noisy data within FSL tasks is a critical challenge. In this paper, we provide a novel view to mitigate the influence of noisy labels, CLIP-based Robust Few-shot learning (CRoF). CRoF is a general plug-in module for CLIP-based models. To avoid misclassification and confused label embedding, we design the few-shot task-oriented prompt generator to give more discriminative descriptions of each category. The proposed prompt achieves larger distances of inter-class textual embedding. Furthermore, rather than fully trusting zero-shot classification by CLIP, we fine-tune CLIP on noisy few-shot data in a new domain with a weighting strategy like label-smooth. The weights for multiple potentially correct labels consider the relationship between CLIP's prior knowledge and original label information to ensure reliability. Our multiple label loss function further supports robust training under this paradigm. Comprehensive experiments show that CRoF, as a plug-in, outperforms fine-tuned and vanilla CLIP models on different noise types and noise ratios.
- Abstract(参考訳): ノイズラベルは、新しいドメインにおける不正確な特徴のため、少数ショット学習(FSL)の堅牢性を脅かす。
大規模な視覚言語モデルであるCLIPは、画像テキストの埋め込み類似性において、FSLでよく機能するが、ノイズラベルによる誤分類の影響を受けやすい。
FSLタスク内のノイズの多いデータに対するCLIPのドメイン一般化の促進は重要な課題である。
本稿では,CLIPをベースとしたRobust Few-shot Learning (CRoF) におけるノイズラベルの影響を緩和する新しい視点を提供する。
CRoFはCLIPベースのモデルのための一般的なプラグインモジュールである。
誤分類やラベル埋め込みの混同を避けるため,各カテゴリのより識別的な記述を行うために,数ショットのタスク指向のプロンプトジェネレータを設計する。
提案手法は,クラス間テキスト埋め込みのより広い距離を実現する。
さらに、CLIPによるゼロショット分類を完全に信頼するのではなく、ラベルスムースのような重み付け戦略を備えた新しいドメインにおいて、ノイズの多い数ショットデータに基づいてCLIPを微調整する。
複数の潜在的なラベルの重み付けは、信頼性を確保するために、CLIPの以前の知識と元のラベル情報との関係を考慮する。
マルチラベル損失関数は、このパラダイムの下での堅牢なトレーニングをさらにサポートします。
総合的な実験により、CRoFはプラグインとして、様々なノイズタイプとノイズ比で微調整されたCLIPモデルとバニラCLIPモデルより優れていることが示された。
関連論文リスト
- Imbalanced Medical Image Segmentation with Pixel-dependent Noisy Labels [23.049622621090453]
クラス不均衡な画素依存雑音ラベルに対処するために,CLCS(Collaborative Learning with Curriculum Selection)を提案する。
CLCSはCNS(Curriculum Noisy Label Sample Selection)とNBL(Noss Balance Loss)の2つのモジュールで構成される。
論文 参考訳(メタデータ) (2025-01-12T00:59:57Z) - CLIP-FSAC++: Few-Shot Anomaly Classification with Anomaly Descriptor Based on CLIP [22.850815902535988]
筆者らは,CLIP-FSAC++と呼ばれる一段階の訓練を施した効果的な数ショット異常分類フレームワークを提案する。
異常記述子では、画像からテキストへのクロスアテンションモジュールを使用して、画像固有のテキスト埋め込みを得る。
その結果,VisAおよびMVTEC-ADを1, 2, 4, 8ショット設定で非正規ショット異常分類し,本手法の総合的な評価実験を行った。
論文 参考訳(メタデータ) (2024-12-05T02:44:45Z) - TagCLIP: A Local-to-Global Framework to Enhance Open-Vocabulary
Multi-Label Classification of CLIP Without Training [29.431698321195814]
Contrastive Language-Image Pre-Training (CLIP) はオープン語彙分類において顕著な能力を示した。
CLIPは、グローバル機能が最も顕著なクラスに支配される傾向があるため、マルチラベルデータセットのパフォーマンスが低い。
画像タグを得るための局所言語フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-20T08:15:40Z) - Roll With the Punches: Expansion and Shrinkage of Soft Label Selection
for Semi-supervised Fine-Grained Learning [42.71454054383897]
クラス遷移追跡(SoC)に基づく信頼度を考慮したクラスタリングによるソフトラベルの選択を提案する。
本手法は,SS-FGVCにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-19T15:22:37Z) - Combating Label Noise With A General Surrogate Model For Sample Selection [77.45468386115306]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Channel-Wise Contrastive Learning for Learning with Noisy Labels [60.46434734808148]
チャネルワイド・コントラッシブ・ラーニング(CWCL)を導入し,真正なラベル情報とノイズを区別する。
従来のインスタンス単位のコントラスト学習(IWCL)とは異なり、CWCLはよりニュアンスでレジリエントな特徴を真のラベルと一致させる傾向にある。
まずCWCLを用いて、クリーンにラベル付けされたサンプルを識別し、次に、これらのサンプルを段階的に微調整する。
論文 参考訳(メタデータ) (2023-08-14T06:04:50Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - PatchMix Augmentation to Identify Causal Features in Few-shot Learning [55.64873998196191]
少ないショット学習は、十分なカテゴリをラベル付けしたデータに基づいて学習した知識を、少ない既知の情報を持つ新しいカテゴリに転送することを目的としている。
我々はPatchMixと呼ばれる新しいデータ拡張戦略を提案し、この急激な依存関係を壊すことができる。
このような拡張メカニズムが,既存のメカニズムと異なり,因果的特徴を識別可能であることを示す。
論文 参考訳(メタデータ) (2022-11-29T08:41:29Z) - Transductive CLIP with Class-Conditional Contrastive Learning [68.51078382124331]
雑音ラベル付き分類ネットワークをスクラッチから学習するための新しいフレームワークであるTransductive CLIPを提案する。
擬似ラベルへの依存を軽減するために,クラス条件のコントラスト学習機構を提案する。
アンサンブルラベルは、ノイズラベル付きディープニューラルネットワークのトレーニングを安定化するための擬似ラベル更新戦略として採用されている。
論文 参考訳(メタデータ) (2022-06-13T14:04:57Z) - The Role of Global Labels in Few-Shot Classification and How to Infer
Them [55.64429518100676]
メタ学習では、ほとんどショット学習が中心的な問題であり、学習者は新しいタスクに迅速に適応しなければならない。
本稿では,メタラベル学習(MeLa)を提案する。メタラベル学習(MeLa)は,グローバルラベルを推論し,標準分類によるロバストな少数ショットモデルを得る新しいアルゴリズムである。
論文 参考訳(メタデータ) (2021-08-09T14:07:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。