論文の概要: Leveraged Weighted Loss for Partial Label Learning
- arxiv url: http://arxiv.org/abs/2106.05731v1
- Date: Thu, 10 Jun 2021 13:25:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-11 14:14:34.655112
- Title: Leveraged Weighted Loss for Partial Label Learning
- Title(参考訳): 部分ラベル学習における重み付き損失の活用
- Authors: Hongwei Wen, Jingyi Cui, Hanyuan Hang, Jiabin Liu, Yisen Wang,
Zhouchen Lin
- Abstract要約: 部分ラベル学習は、各インスタンスに候補ラベルのセットが割り当てられるデータを扱うが、そのうちの1つだけが真実である。
部分ラベルからの学習に関する多くの方法論の研究にもかかわらず、リスク一貫した性質に関する理論的理解はいまだに欠けている。
本稿では,テキスト重み付き損失(LW)と呼ばれる損失関数のファミリーを提案する。これはまず,部分ラベル上の損失と非部分的な損失とのトレードオフを検討するために,レバレッジパラメータ$beta$を導入する。
- 参考スコア(独自算出の注目度): 64.85763991485652
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As an important branch of weakly supervised learning, partial label learning
deals with data where each instance is assigned with a set of candidate labels,
whereas only one of them is true. Despite many methodology studies on learning
from partial labels, there still lacks theoretical understandings of their risk
consistent properties under relatively weak assumptions, especially on the link
between theoretical results and the empirical choice of parameters. In this
paper, we propose a family of loss functions named \textit{Leveraged Weighted}
(LW) loss, which for the first time introduces the leverage parameter $\beta$
to consider the trade-off between losses on partial labels and non-partial
ones. From the theoretical side, we derive a generalized result of risk
consistency for the LW loss in learning from partial labels, based on which we
provide guidance to the choice of the leverage parameter $\beta$. In
experiments, we verify the theoretical guidance, and show the high
effectiveness of our proposed LW loss on both benchmark and real datasets
compared with other state-of-the-art partial label learning algorithms.
- Abstract(参考訳): 弱い教師付き学習の重要な分野として、部分ラベル学習は、各インスタンスに候補ラベルのセットが割り当てられるデータを扱うが、そのうちの1つだけが真実である。
部分ラベルからの学習に関する多くの方法論研究にもかかわらず、相対的に弱い仮定の下でそれらのリスク一貫した性質に関する理論的理解はいまだに欠けている。
本稿では,部分ラベルの損失と非部分ラベルの損失のトレードオフを考えるために,レバレッジパラメータ$\beta$を導入することを目的とした,lwロスと呼ばれる損失関数の族を提案する。
理論的な側面から、部分ラベルから学習する際のLW損失に対するリスク一貫性の一般化結果が導出され、そこではレバレッジパラメータ $\beta$ の選択に関するガイダンスを提供する。
実験では,提案したLW損失が,他の最先端部分ラベル学習アルゴリズムと比較して,ベンチマークと実データの両方において高い有効性を示す。
関連論文リスト
- An Unbiased Risk Estimator for Partial Label Learning with Augmented Classes [46.663081214928226]
PLLACを理論的に保証した非バイアスリスク推定器を提案する。
PLLACの推定誤差の理論的解析を行う。
ベンチマーク、UCI、実世界のデータセットの実験では、提案手法の有効性が示されている。
論文 参考訳(メタデータ) (2024-09-29T07:36:16Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - Robust Representation Learning for Unreliable Partial Label Learning [86.909511808373]
部分ラベル学習(Partial Label Learning, PLL)は、弱い教師付き学習の一種で、各トレーニングインスタンスに候補ラベルのセットが割り当てられる。
これはUn Reliable partial Label Learning (UPLL) と呼ばれ、部分ラベルの本質的な信頼性の欠如とあいまいさにより、さらなる複雑さをもたらす。
本研究では,信頼できない部分ラベルに対するモデル強化を支援するために,信頼性に欠けるコントラスト学習を活用するUnreliability-Robust Representation Learning framework(URRL)を提案する。
論文 参考訳(メタデータ) (2023-08-31T13:37:28Z) - On Learning Latent Models with Multi-Instance Weak Supervision [57.18649648182171]
本稿では,複数の入力インスタンスに関連付けられた遷移関数$sigma$ラベルによって,教師信号が生成される弱い教師付き学習シナリオについて考察する。
我々の問題は、潜在的な構造学習やニューロシンボリックな統合など、さまざまな分野で満たされている。
論文 参考訳(メタデータ) (2023-06-23T22:05:08Z) - Easy Learning from Label Proportions [17.71834385754893]
Easyllpは、アグリゲーションラベルに基づいた、柔軟で簡単に実装可能なデバイアス方式である。
我々の手法は、任意のモデルが個々のレベルで予想される損失を正確に見積もることができる。
論文 参考訳(メタデータ) (2023-02-06T20:41:38Z) - Learning from Label Proportions by Learning with Label Noise [30.7933303912474]
ラベル比例(LLP)からの学習は、データポイントをバッグに分類する弱い教師付き分類問題である。
ラベル雑音による学習の低減に基づくLLPに対する理論的基礎的なアプローチを提案する。
このアプローチは、複数のデータセットやアーキテクチャにわたるディープラーニングシナリオにおける経験的パフォーマンスの向上を実証する。
論文 参考訳(メタデータ) (2022-03-04T18:52:21Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - Lower-bounded proper losses for weakly supervised classification [73.974163801142]
本稿では,弱いラベルが与えられた分類の弱い教師付き学習の問題について議論する。
サベージ表現を双対化する教師付き学習における適切な損失を表す表現定理を導出する。
提案手法の有効性を,不適切な損失や非有界損失と比較して実験的に実証した。
論文 参考訳(メタデータ) (2021-03-04T08:47:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。