論文の概要: CLIP-driven Zero-shot Learning with Ambiguous Labels
- arxiv url: http://arxiv.org/abs/2603.05053v1
- Date: Thu, 05 Mar 2026 11:06:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.195749
- Title: CLIP-driven Zero-shot Learning with Ambiguous Labels
- Title(参考訳): 曖昧ラベルを用いたCLIP駆動ゼロショット学習
- Authors: Jinfu Fan, Jiangnan Li, Xiaowen Yan, Xiaohui Zhong, Wenpeng Lu, Linqing Huang,
- Abstract要約: ラベルのあいまいさを扱うために,CLIP-PZSL(CLIP-PZSL)フレームワークを提案する。
トレーニングが進むにつれて、地平線ラベルは徐々に識別され、改良されたラベルとラベルの埋め込みは、インスタンスとラベルの特徴のセマンティックアライメントを改善するのに役立ちます。
- 参考スコア(独自算出の注目度): 18.698063548107672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot learning (ZSL) aims to recognize unseen classes by leveraging semantic information from seen classes, but most existing methods assume accurate class labels for training instances. However, in real-world scenarios, noise and ambiguous labels can significantly reduce the performance of ZSL. To address this, we propose a new CLIP-driven partial label zero-shot learning (CLIP-PZSL) framework to handle label ambiguity. First, we use CLIP to extract instance and label features. Then, a semantic mining block fuses these features to extract discriminative label embeddings. We also introduce a partial zero-shot loss, which assigns weights to candidate labels based on their relevance to the instance and aligns instance and label embeddings to minimize semantic mismatch. As the training goes on, the ground-truth labels are progressively identified, and the refined labels and label embeddings in turn help improve the semantic alignment of instance and label features. Comprehensive experiments on several datasets demonstrate the advantage of CLIP-PZSL.
- Abstract(参考訳): Zero-shot Learning (ZSL) は、目に見えないクラスからのセマンティック情報を活用することで、目に見えないクラスを認識することを目的としている。
しかし、現実のシナリオではノイズやあいまいなラベルがZSLの性能を大幅に低下させる可能性がある。
そこで本稿では,CLIP-PZSL(CLIP-driven partial label zero-shot learning)フレームワークを提案する。
まず、CLIPを使ってインスタンスとラベルの機能を抽出します。
そして、セマンティックマイニングブロックがこれらの特徴を融合して識別ラベル埋め込みを抽出する。
また、インスタンスとの関連性に基づいて重み付けを候補ラベルに割り当てる部分的なゼロショットロスを導入し、セマンティックミスマッチを最小限に抑えるためにインスタンスとラベルの埋め込みを調整する。
トレーニングが進むにつれて、地平線ラベルは徐々に識別され、改良されたラベルとラベルの埋め込みは、インスタンスとラベルの特徴のセマンティックアライメントを改善するのに役立ちます。
いくつかのデータセットに関する総合的な実験は、CLIP-PZSLの利点を示している。
関連論文リスト
- Zero-Shot Pseudo Labels Generation Using SAM and CLIP for Semi-Supervised Semantic Segmentation [0.0]
注釈付きラベルと擬似ラベルを用いた画像を用いた意味的セグメンテーションモデルを訓練する手法を提案する。
モデルの精度は、擬似ラベルの品質と注釈付きラベルによるデータの量に依存する。
提案手法の有効性は,公開データセットであるPASCALとMS COCOを用いて実証した。
論文 参考訳(メタデータ) (2025-05-26T11:31:13Z) - CRoF: CLIP-based Robust Few-shot Learning on Noisy Labels [12.69583354123737]
ノイズラベルは、新しいドメインにおける不正確な特徴のために、数発の学習の頑丈さを脅かす。
雑音ラベル,CLIPベースのRobst Few-shot Learning(CRoF)の影響を緩和する新しい視点を提供する。
CRoFはCLIPベースのモデルのための一般的なプラグインモジュールである。
論文 参考訳(メタデータ) (2024-12-17T10:56:18Z) - Mixed Blessing: Class-Wise Embedding guided Instance-Dependent Partial Label Learning [53.64180787439527]
部分ラベル学習(PLL)では、各サンプルは、基底トラスラベルと複数のノイズラベルからなる候補ラベルセットに関連付けられている。
初めて、各サンプルに対してクラスワイドな埋め込みを作成し、インスタンス依存のノイズラベルの関係を調査できるようにします。
ラベルの曖昧さを低減するため,グローバルな特徴情報を含むクラスプロトタイプのコンセプトを紹介した。
論文 参考訳(メタデータ) (2024-12-06T13:25:39Z) - Learning from Concealed Labels [5.235218636685312]
複数クラス分類のための隠れラベルから学習する,各インスタンスのプライバシ保護のための新しい設定を提案する。
ラベル収集段階では、機密ラベルがラベルセットに現れるのを防止し、機密データを注釈付けするための隠蔽ラベルとしてランダムにサンプリングされた無機密ラベルを指定しない。
論文 参考訳(メタデータ) (2024-12-03T08:00:19Z) - Pseudo-labelling meets Label Smoothing for Noisy Partial Label Learning [8.387189407144403]
我々は、完全注釈付きデータセットのキュレーションが高価である問題に対する効果的な学習パラダイムとして、弱い教師付き学習を動機付けている。
PLL(Partial Learning)は、各トレーニングインスタンスが候補ラベルのセットとペアリングされる、弱い教師付き学習パラダイムである。
本稿では,近傍の重み付けアルゴリズムを用いて,まず画像に擬似ラベルを割り当てるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T13:32:47Z) - Channel-Wise Contrastive Learning for Learning with Noisy Labels [60.46434734808148]
チャネルワイド・コントラッシブ・ラーニング(CWCL)を導入し,真正なラベル情報とノイズを区別する。
従来のインスタンス単位のコントラスト学習(IWCL)とは異なり、CWCLはよりニュアンスでレジリエントな特徴を真のラベルと一致させる傾向にある。
まずCWCLを用いて、クリーンにラベル付けされたサンプルを識別し、次に、これらのサンプルを段階的に微調整する。
論文 参考訳(メタデータ) (2023-08-14T06:04:50Z) - Imprecise Label Learning: A Unified Framework for Learning with Various Imprecise Label Configurations [91.67511167969934]
imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T04:50:28Z) - Complementary Classifier Induced Partial Label Learning [54.61668156386079]
部分ラベル学習(PLL)では、各トレーニングサンプルは候補ラベルのセットに関連付けられ、そのうち1つのみが有効である。
曖昧さでは、既存の研究は通常、非候補ラベルセットの有効性を十分に調査しない。
本稿では,非候補ラベルを用いて補完的分類器を誘導し,従来の分類器に対する逆関係を自然に形成する。
論文 参考訳(メタデータ) (2023-05-17T02:13:23Z) - Transductive CLIP with Class-Conditional Contrastive Learning [68.51078382124331]
雑音ラベル付き分類ネットワークをスクラッチから学習するための新しいフレームワークであるTransductive CLIPを提案する。
擬似ラベルへの依存を軽減するために,クラス条件のコントラスト学習機構を提案する。
アンサンブルラベルは、ノイズラベル付きディープニューラルネットワークのトレーニングを安定化するための擬似ラベル更新戦略として採用されている。
論文 参考訳(メタデータ) (2022-06-13T14:04:57Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。