論文の概要: Learning with Complementary Labels Revisited: A Consistent Approach via
Negative-Unlabeled Learning
- arxiv url: http://arxiv.org/abs/2311.15502v1
- Date: Mon, 27 Nov 2023 02:59:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 17:15:41.105708
- Title: Learning with Complementary Labels Revisited: A Consistent Approach via
Negative-Unlabeled Learning
- Title(参考訳): 相補ラベルを用いた学習の再検討--負ラベル学習による一貫したアプローチ
- Authors: Wei Wang, Takashi Ishida, Yu-Jie Zhang, Gang Niu, Masashi Sugiyama
- Abstract要約: 本稿では,既存の手法に依存しない新たな補完学習手法を提案する。
相補的なラベル学習は負のラベル付きバイナリ分類問題の集合として表現できることを示す。
また,複雑なモデルを用いた場合の過適合問題に対処するためのリスク補正手法も導入する。
- 参考スコア(独自算出の注目度): 71.42360409393201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complementary-label learning is a weakly supervised learning problem in which
each training example is associated with one or multiple complementary labels
indicating the classes to which it does not belong. Existing consistent
approaches have relied on the uniform distribution assumption to model the
generation of complementary labels, or on an ordinary-label training set to
estimate the transition matrix. However, both conditions may not be satisfied
in real-world scenarios. In this paper, we propose a novel complementary-label
learning approach that does not rely on these conditions. We find that
complementary-label learning can be expressed as a set of negative-unlabeled
binary classification problems when using the one-versus-rest strategy. This
observation allows us to propose a risk-consistent approach with theoretical
guarantees. Furthermore, we introduce a risk correction approach to address
overfitting problems when using complex models. We also prove the statistical
consistency and convergence rate of the corrected risk estimator. Extensive
experimental results on both synthetic and real-world benchmark datasets
validate the superiority of our proposed approach over state-of-the-art
methods.
- Abstract(参考訳): 補完ラベル学習(complementary-label learning)は、各トレーニング例が1つまたは複数の補完ラベルに関連付けられている弱い教師付き学習問題である。
既存の一貫したアプローチは、相補的なラベルの生成をモデル化する一様分布仮定や、遷移行列を推定するための通常のラベル訓練セットに依存する。
しかし、両方の条件は現実のシナリオでは満たされない。
本稿では,これらの条件に依存しない新しい補完ラベル学習手法を提案する。
補足ラベル学習は, 1-versus-rest戦略を用いた場合, 負ラベル付き二分分類問題の集合として表現できることがわかった。
この観察により、理論的保証を伴うリスク一貫性のあるアプローチが提案できる。
さらに,複雑なモデルを用いた場合の過適合問題に対するリスク補正手法を提案する。
また,修正リスク推定器の統計的一貫性と収束率も証明した。
合成および実世界のベンチマークデータセットの大規模な実験結果から,提案手法が最先端手法よりも優れていることを示す。
関連論文リスト
- AllMatch: Exploiting All Unlabeled Data for Semi-Supervised Learning [5.0823084858349485]
提案するSSLアルゴリズムであるAllMatchは,擬似ラベル精度の向上とラベルなしデータの100%利用率の向上を実現する。
その結果、AllMatchは既存の最先端メソッドよりも一貫して優れています。
論文 参考訳(メタデータ) (2024-06-22T06:59:52Z) - Robust Representation Learning for Unreliable Partial Label Learning [86.909511808373]
部分ラベル学習(Partial Label Learning, PLL)は、弱い教師付き学習の一種で、各トレーニングインスタンスに候補ラベルのセットが割り当てられる。
これはUn Reliable partial Label Learning (UPLL) と呼ばれ、部分ラベルの本質的な信頼性の欠如とあいまいさにより、さらなる複雑さをもたらす。
本研究では,信頼できない部分ラベルに対するモデル強化を支援するために,信頼性に欠けるコントラスト学習を活用するUnreliability-Robust Representation Learning framework(URRL)を提案する。
論文 参考訳(メタデータ) (2023-08-31T13:37:28Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - Multi-Complementary and Unlabeled Learning for Arbitrary Losses and
Models [6.177038245239757]
本稿では,新しい多言語学習フレームワークを提案する。
まず、複数の相補ラベルを持つサンプルから、分類リスクの偏りのない推定を行う。
次に,未ラベルのサンプルをリスク定式化に組み込むことにより,予測器をさらに改良する。
論文 参考訳(メタデータ) (2020-01-13T13:52:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。