論文の概要: Multi-Complementary and Unlabeled Learning for Arbitrary Losses and
Models
- arxiv url: http://arxiv.org/abs/2001.04243v3
- Date: Thu, 23 Jul 2020 17:18:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 22:39:14.038202
- Title: Multi-Complementary and Unlabeled Learning for Arbitrary Losses and
Models
- Title(参考訳): 任意損失とモデルのための多成分・非ラベル学習
- Authors: Yuzhou Cao, Shuqi Liu and Yitian Xu
- Abstract要約: 本稿では,新しい多言語学習フレームワークを提案する。
まず、複数の相補ラベルを持つサンプルから、分類リスクの偏りのない推定を行う。
次に,未ラベルのサンプルをリスク定式化に組み込むことにより,予測器をさらに改良する。
- 参考スコア(独自算出の注目度): 6.177038245239757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A weakly-supervised learning framework named as complementary-label learning
has been proposed recently, where each sample is equipped with a single
complementary label that denotes one of the classes the sample does not belong
to. However, the existing complementary-label learning methods cannot learn
from the easily accessible unlabeled samples and samples with multiple
complementary labels, which are more informative. In this paper, to remove
these limitations, we propose the novel multi-complementary and unlabeled
learning framework that allows unbiased estimation of classification risk from
samples with any number of complementary labels and unlabeled samples, for
arbitrary loss functions and models. We first give an unbiased estimator of the
classification risk from samples with multiple complementary labels, and then
further improve the estimator by incorporating unlabeled samples into the risk
formulation. The estimation error bounds show that the proposed methods are in
the optimal parametric convergence rate. Finally, the experiments on both
linear and deep models show the effectiveness of our methods.
- Abstract(参考訳): 補足ラベル学習と呼ばれる弱教師付き学習フレームワークが最近提案されており、各サンプルには、サンプルが属さないクラスのひとつを表す単一の補足ラベルが備えられている。
しかし,既存の補完ラベル学習手法では,複数の補完ラベルを持つ非ラベル付きサンプルやサンプルから学習することができない。
本稿では,これらの制約を解消するために,任意のラベルとラベルなしサンプルを持つサンプルから,任意の損失関数とモデルに対して,分類リスクの偏りのない推定を可能にする,新しい多相学習フレームワークを提案する。
まず,複数の相補ラベルを有する試料からの分類リスクの偏りのない推定器を提示し,リスク定式化にラベルなしサンプルを組み込むことにより,推定器をさらに改良する。
推定誤差境界は,提案手法が最適パラメトリック収束率にあることを示す。
最後に,線形モデルと深部モデルの両方で実験を行い,本手法の有効性を示した。
関連論文リスト
- AllMatch: Exploiting All Unlabeled Data for Semi-Supervised Learning [5.0823084858349485]
提案するSSLアルゴリズムであるAllMatchは,擬似ラベル精度の向上とラベルなしデータの100%利用率の向上を実現する。
その結果、AllMatchは既存の最先端メソッドよりも一貫して優れています。
論文 参考訳(メタデータ) (2024-06-22T06:59:52Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。