論文の概要: Mixed Blessing: Class-Wise Embedding guided Instance-Dependent Partial Label Learning
- arxiv url: http://arxiv.org/abs/2412.05029v1
- Date: Fri, 06 Dec 2024 13:25:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:55:36.342553
- Title: Mixed Blessing: Class-Wise Embedding guided Instance-Dependent Partial Label Learning
- Title(参考訳): Mixed Blessing: クラスワイズ埋め込みガイド付きインスタンス依存部分ラベル学習
- Authors: Fuchao Yang, Jianhong Cheng, Hui Liu, Yongqiang Dong, Yuheng Jia, Junhui Hou,
- Abstract要約: 部分ラベル学習(PLL)では、各サンプルは、基底トラスラベルと複数のノイズラベルからなる候補ラベルセットに関連付けられている。
初めて、各サンプルに対してクラスワイドな埋め込みを作成し、インスタンス依存のノイズラベルの関係を調査できるようにします。
ラベルの曖昧さを低減するため,グローバルな特徴情報を含むクラスプロトタイプのコンセプトを紹介した。
- 参考スコア(独自算出の注目度): 53.64180787439527
- License:
- Abstract: In partial label learning (PLL), every sample is associated with a candidate label set comprising the ground-truth label and several noisy labels. The conventional PLL assumes the noisy labels are randomly generated (instance-independent), while in practical scenarios, the noisy labels are always instance-dependent and are highly related to the sample features, leading to the instance-dependent partial label learning (IDPLL) problem. Instance-dependent noisy label is a double-edged sword. On one side, it may promote model training as the noisy labels can depict the sample to some extent. On the other side, it brings high label ambiguity as the noisy labels are quite undistinguishable from the ground-truth label. To leverage the nuances of IDPLL effectively, for the first time we create class-wise embeddings for each sample, which allow us to explore the relationship of instance-dependent noisy labels, i.e., the class-wise embeddings in the candidate label set should have high similarity, while the class-wise embeddings between the candidate label set and the non-candidate label set should have high dissimilarity. Moreover, to reduce the high label ambiguity, we introduce the concept of class prototypes containing global feature information to disambiguate the candidate label set. Extensive experimental comparisons with twelve methods on six benchmark data sets, including four fine-grained data sets, demonstrate the effectiveness of the proposed method. The code implementation is publicly available at https://github.com/Yangfc-ML/CEL.
- Abstract(参考訳): 部分ラベル学習(PLL)では、各サンプルは、基底トラスラベルと複数のノイズラベルからなる候補ラベルセットに関連付けられている。
従来のPLLでは、ノイズラベルはランダムに生成され(インスタンスに依存しない)、実用的なシナリオでは、ノイズラベルは常にインスタンス依存であり、サンプルの特徴に強く関連しているため、インスタンス依存部分ラベル学習(IDPLL)問題が発生する。
インスタンス依存ノイズラベルは、二重刃の剣である。
一方、ノイズラベルがサンプルをある程度描写できるため、モデルトレーニングを促進する可能性がある。
一方、ノイズのあるラベルは地味なラベルとはかなり区別がつかないため、ラベルの曖昧さが高い。
IDPLLのニュアンスを効果的に活用するために、各サンプルに対するクラスワイドな埋め込みを初めて作成し、インスタンス依存のノイズラベルの関係、すなわち、候補ラベルセットのクラスワイドな埋め込みは高い類似性を持つべきであり、候補ラベルセットと非候補ラベルセットのクラスワイドな埋め込みは高い相似性を持つべきである。
さらに,高いラベルの曖昧さを低減するため,グローバルな特徴情報を含むクラスプロトタイプの概念を導入して,候補ラベルの曖昧さを解消する。
提案手法の有効性を実証するため,6つのベンチマークデータセットに対する12の方法との比較実験を行った。
コード実装はhttps://github.com/Yangfc-ML/CELで公開されている。
関連論文リスト
- Exploiting Conjugate Label Information for Multi-Instance Partial-Label Learning [61.00359941983515]
MIPL(Multi-instance partial-label Learning)は、各トレーニングサンプルが1つの真のラベルといくつかの偽陽性を含む候補ラベルセットに関連付けられたマルチインスタンスバッグとして表現されるシナリオに対処する。
ELIMIPLは共役ラベル情報を利用して曖昧性を改善する。
論文 参考訳(メタデータ) (2024-08-26T15:49:31Z) - Determined Multi-Label Learning via Similarity-Based Prompt [12.428779617221366]
マルチラベル分類では、各トレーニングインスタンスは複数のクラスラベルに同時に関連付けられている。
この問題を軽減するために,textitDetermined Multi-Label Learning (DMLL) と呼ばれる新しいラベル設定を提案する。
論文 参考訳(メタデータ) (2024-03-25T07:08:01Z) - Pseudo-labelling meets Label Smoothing for Noisy Partial Label Learning [8.387189407144403]
部分ラベル学習(Partial label learning、PLL)は、各トレーニングインスタンスが候補ラベル(Partial label)のセットとペアリングされる弱い教師付き学習パラダイムである。
NPLLはこの制約を緩和し、一部の部分ラベルが真のラベルを含まないようにし、問題の実用性を高める。
本稿では,近傍の重み付けアルゴリズムを用いて,雑音のある部分ラベルを利用して画像に擬似ラベルを割り当てる最小限のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T13:32:47Z) - Appeal: Allow Mislabeled Samples the Chance to be Rectified in Partial Label Learning [55.4510979153023]
部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
誤記されたサンプルの「アペアル」を支援するため,最初の魅力に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-18T09:09:52Z) - Imprecise Label Learning: A Unified Framework for Learning with Various Imprecise Label Configurations [91.67511167969934]
imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T04:50:28Z) - Complementary Classifier Induced Partial Label Learning [54.61668156386079]
部分ラベル学習(PLL)では、各トレーニングサンプルは候補ラベルのセットに関連付けられ、そのうち1つのみが有効である。
曖昧さでは、既存の研究は通常、非候補ラベルセットの有効性を十分に調査しない。
本稿では,非候補ラベルを用いて補完的分類器を誘導し,従来の分類器に対する逆関係を自然に形成する。
論文 参考訳(メタデータ) (2023-05-17T02:13:23Z) - Decomposition-based Generation Process for Instance-Dependent Partial
Label Learning [45.133781119468836]
部分ラベル学習(Partial label learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニング例は、その中の1つだけが真である候補ラベルのセットに関連付けられている。
既存のほとんどのアプローチでは、トレーニングサンプルの誤りラベルを候補ラベルとしてランダムに選択し、候補ラベルの生成プロセスを簡単な方法でモデル化する。
候補ラベルの明示的にモデル化された生成プロセスに基づいて,最大Aポストミラー(MAP)を提案する。
論文 参考訳(メタデータ) (2022-04-08T05:18:51Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Evaluating Multi-label Classifiers with Noisy Labels [0.7868449549351487]
実世界では、クリーンなデータセットよりもノイズの多いデータセットを扱う方が一般的です。
雑音ラベルを効果的に処理するコンテキストベースマルチラベル分類器(CbMLC)を提案する。
CbMLCは、ほとんどの場合、以前の方法よりも大幅に改善されています。
論文 参考訳(メタデータ) (2021-02-16T19:50:52Z) - Multi-Level Generative Models for Partial Label Learning with Non-random
Label Noise [47.01917619550429]
部分ラベル学習のための新しい多段階生成モデル(MGPLL)を提案する。
ラベルレベルの逆生成器と特徴レベルの逆生成器の両方を双方向マッピングフレームワークで学習する。
提案手法は,部分ラベル学習における最先端性能を示す。
論文 参考訳(メタデータ) (2020-05-11T20:13:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。