論文の概要: Tuning the Right Foundation Models is What you Need for Partial Label Learning
- arxiv url: http://arxiv.org/abs/2506.05027v1
- Date: Thu, 05 Jun 2025 13:37:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.732487
- Title: Tuning the Right Foundation Models is What you Need for Partial Label Learning
- Title(参考訳): 正しい基礎モデルをチューニングする - 部分的なラベル学習に必要なもの
- Authors: Kuang He, Wei Tang, Tong Wei, Min-Ling Zhang,
- Abstract要約: 部分ラベル学習は、不正確な監督を伴うデータセットから一般化可能な分類器を訓練しようとする。
本研究では,13のアプローチによる11の基盤モデルの評価を,3つのシナリオ下で8つのベンチマークデータセット上で実証的に実施する。
その結果, 基礎モデルを用いた場合, 2) 互いに著しく類似した性能を示し, 3) 様々なあいまいさレベルにわたって安定な性能を維持し, 4) 基礎モデルの選択や適応戦略に敏感であることがわかった。
- 参考スコア(独自算出の注目度): 55.61644150441799
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Partial label learning (PLL) seeks to train generalizable classifiers from datasets with inexact supervision, a common challenge in real-world applications. Existing studies have developed numerous approaches to progressively refine and recover ground-truth labels by training convolutional neural networks. However, limited attention has been given to foundation models that offer transferrable representations. In this work, we empirically conduct comprehensive evaluations of 11 foundation models across 13 PLL approaches on 8 benchmark datasets under 3 PLL scenarios. We further propose PartialCLIP, an efficient fine-tuning framework for foundation models in PLL. Our findings reveal that current PLL approaches tend to 1) achieve significant performance gains when using foundation models, 2) exhibit remarkably similar performance to each other, 3) maintain stable performance across varying ambiguity levels, while 4) are susceptible to foundation model selection and adaptation strategies. Additionally, we demonstrate the efficacy of text-embedding classifier initialization and effective candidate label filtering using zero-shot CLIP. Our experimental results and analysis underscore the limitations of current PLL approaches and provide valuable insights for developing more generalizable PLL models. The source code can be found at https://github.com/SEU-hk/PartialCLIP.
- Abstract(参考訳): 部分ラベル学習 (Partial label learning, PLL) は、現実世界のアプリケーションにおいて一般的な課題である、不正確な監視を伴うデータセットから一般化可能な分類器を訓練することを目指している。
既存の研究は、畳み込みニューラルネットワークを訓練することによって、地下構造ラベルを漸進的に洗練し、復元するための多くのアプローチを開発してきた。
しかし、転送可能な表現を提供する基礎モデルには、限られた注意が向けられている。
本研究では,13のPLLアプローチを対象とした11の基盤モデルの総合的な評価を,3つのPLLシナリオ下で8つのベンチマークデータセット上で実証的に実施する。
さらに,PLLにおける基礎モデルのための効率的な微調整フレームワークであるPartialCLIPを提案する。
以上の結果より,現在の PLL アプローチの傾向が示唆された。
1)基礎モデルを用いた場合,大幅な性能向上が達成される。
2) 互いに著しく類似した性能を示す。
3)あいまいさのレベルによって安定した性能を維持しつつも、
4) 基礎モデル選択および適応戦略の影響を受けやすい。
また,ゼロショットCLIPを用いたテキスト埋め込み分類器の初期化と有効候補ラベルフィルタリングの有効性を示した。
我々の実験結果と分析は、現在のPLLアプローチの限界を強調し、より一般化可能なPLLモデルを開発する上で貴重な洞察を提供する。
ソースコードはhttps://github.com/SEU-hk/PartialCLIPで確認できる。
関連論文リスト
- SPARC: Score Prompting and Adaptive Fusion for Zero-Shot Multi-Label Recognition in Vision-Language Models [74.40683913645731]
Zero-shot Multi-label Recognition (MLR) with Vision-Language Models (VLMs) は、トレーニングデータ、モデルチューニング、アーキテクチャの変更なしに重要な課題に直面している。
我々の研究は、VLMをブラックボックスとして扱い、トレーニングデータや地上の真実を使わずにスコアを活用する新しいソリューションを提案する。
これらのプロンプトスコアの分析により、VLMバイアスとAND'/OR信号の曖昧さが明らかになり、特に、最高スコアは2番目に高いスコアに比べて驚くほど低い。
論文 参考訳(メタデータ) (2025-02-24T07:15:05Z) - Realistic Evaluation of Deep Partial-Label Learning Algorithms [94.79036193414058]
部分ラベル学習(Partial-label Learning, PLL)は、各サンプルが複数の候補ラベルに関連付けられている弱い教師付き学習問題である。
近年,モデル性能向上のために多くのディープアルゴリズムが開発されている。
初期のアルゴリズムは、しばしば過小評価され、複雑な設計で多くの後のアルゴリズムより優れている。
論文 参考訳(メタデータ) (2025-02-14T14:22:16Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - PLOOD: Partial Label Learning with Out-of-distribution Objects [37.23754625256131]
既存のPartial Label Learning (PLL) メソッドは、トレーニングデータとテストデータが同じ分布に従属すると仮定する。
我々は,この問題に対処するためにDPLLパラダイムを導入する。
また,新たに提案したPLOODフレームワークにより,PNSA(Positive-Negative Sample)特徴学習とPE(Partial Energy)に基づくラベルリファインメントによるOODオブジェクトのシミュレートが可能となった。
論文 参考訳(メタデータ) (2024-03-11T12:56:36Z) - Progressive Purification for Instance-Dependent Partial Label Learning [37.65717805892473]
部分ラベル学習 (PLL) は、固定だが未知の候補ラベルが正しい候補ラベルのセットでアノテートされた例から、多クラス分類器を訓練することを目的としている。
候補ラベルは常にインスタンス依存であり、インスタンス依存の例で訓練されたモデルが理想的な例に収束できるという理論的保証はない。
本稿では,POP(PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification
論文 参考訳(メタデータ) (2022-06-02T02:07:12Z) - Provably Consistent Partial-Label Learning [120.4734093544867]
部分ラベル学習 (Partial-label Learning, PLL) は多クラス分類問題である。
本稿では,候補ラベル集合の第1世代モデルを提案し,一貫性が保証される2つの新しい手法を開発する。
ベンチマークおよび実世界のデータセットの実験は、提案した生成モデルの有効性と2つの方法の有効性を検証する。
論文 参考訳(メタデータ) (2020-07-17T12:19:16Z) - Progressive Identification of True Labels for Partial-Label Learning [112.94467491335611]
部分ラベル学習(Partial-label Learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニングインスタンスには、真のラベルである候補ラベルのセットが設けられている。
既存のほとんどの手法は、特定の方法で解決しなければならない制約付き最適化として精巧に設計されており、計算複雑性をビッグデータにスケールアップするボトルネックにしている。
本稿では,モデルと最適化アルゴリズムの柔軟性を備えた分類器の新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T08:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。