論文の概要: Pseudo Labels Regularization for Imbalanced Partial-Label Learning
- arxiv url: http://arxiv.org/abs/2303.03946v1
- Date: Mon, 6 Mar 2023 15:21:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 14:53:41.116799
- Title: Pseudo Labels Regularization for Imbalanced Partial-Label Learning
- Title(参考訳): 不均衡部分ラベル学習のための擬似ラベル規則化
- Authors: Mingyu Xu, Zheng Lian
- Abstract要約: 部分ラベル学習と長期学習の課題は、まともな境界分布と擬似ラベルの描画を一致させることである。
本手法は,ヘッドクラスの擬似ラベルを罰することにより,標準化されたベンチマークの下で最先端の手法を実装している。
- 参考スコア(独自算出の注目度): 11.93067260471484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partial-label learning (PLL) is an important branch of weakly supervised
learning where the single ground truth resides in a set of candidate labels,
while the research rarely considers the label imbalance. A recent study for
imbalanced partial-Label learning proposed that the combinatorial challenge of
partial-label learning and long-tail learning lies in matching between a decent
marginal prior distribution with drawing the pseudo labels. However, we believe
that even if the pseudo label matches the prior distribution, the tail classes
will still be difficult to learn because the total weight is too small.
Therefore, we propose a pseudo-label regularization technique specially
designed for PLL. By punishing the pseudo labels of head classes, our method
implements state-of-art under the standardized benchmarks compared to the
previous PLL methods.
- Abstract(参考訳): 部分ラベル学習(pll)は、単一の基底真理が複数の候補ラベルに存在する弱い教師付き学習の重要な分野であるが、この研究はラベルの不均衡をほとんど考慮しない。
不均衡部分ラベル学習の最近の研究は、部分ラベル学習と長期学習の組合せ課題は、適切な辺縁分布と擬似ラベルの描画との整合性にあることを示唆している。
しかし、仮のラベルが以前の分布と一致するとしても、全体の重量が小さすぎるため、テールクラスは学習が困難である。
そこで本研究では,PLL用に特別に設計された擬似ラベル正規化手法を提案する。
ヘッドクラスの擬似ラベルを罰することにより、従来のpllメソッドと比較して、標準ベンチマーク下で最先端の実装を行う。
関連論文リスト
- Pseudo-labelling meets Label Smoothing for Noisy Partial Label Learning [8.387189407144403]
部分ラベル学習(Partial label learning、PLL)は、各トレーニングインスタンスが候補ラベル(Partial label)のセットとペアリングされる弱い教師付き学習パラダイムである。
NPLLはこの制約を緩和し、一部の部分ラベルが真のラベルを含まないようにし、問題の実用性を高める。
本稿では,近傍の重み付けアルゴリズムを用いて,雑音のある部分ラベルを利用して画像に擬似ラベルを割り当てる最小限のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T13:32:47Z) - Appeal: Allow Mislabeled Samples the Chance to be Rectified in Partial Label Learning [55.4510979153023]
部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
誤記されたサンプルの「アペアル」を支援するため,最初の魅力に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-18T09:09:52Z) - Complementary Classifier Induced Partial Label Learning [54.61668156386079]
部分ラベル学習(PLL)では、各トレーニングサンプルは候補ラベルのセットに関連付けられ、そのうち1つのみが有効である。
曖昧さでは、既存の研究は通常、非候補ラベルセットの有効性を十分に調査しない。
本稿では,非候補ラベルを用いて補完的分類器を誘導し,従来の分類器に対する逆関係を自然に形成する。
論文 参考訳(メタデータ) (2023-05-17T02:13:23Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - SoLar: Sinkhorn Label Refinery for Imbalanced Partial-Label Learning [31.535219018410707]
部分ラベル学習(Partial-label Learning, PLL)は、トレーニングサンプルが一般に、単一の真実ではなく、一連の候補ラベルに関連付けられている、独特な弱い教師付き学習課題である。
本稿では,境界クラス事前分布のマッチングに向けて,曖昧なラベルを洗練するための新しいフレームワークであるSoLarを提案する。
SoLarは、従来の最先端の手法に比べて、標準化されたベンチマークにおいてかなり優れた結果を示している。
論文 参考訳(メタデータ) (2022-09-21T14:00:16Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。