論文の概要: Partial-Label Regression
- arxiv url: http://arxiv.org/abs/2306.08968v1
- Date: Thu, 15 Jun 2023 09:02:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 15:34:55.088134
- Title: Partial-Label Regression
- Title(参考訳): 部分ラベル回帰
- Authors: Xin Cheng and Deng-Bao Wang and Lei Feng and Min-Ling Zhang and Bo An
- Abstract要約: 部分ラベル学習は、弱い教師付き学習環境であり、各トレーニング例に候補ラベルのセットをアノテートすることができる。
部分ラベル学習に関する従来の研究は、候補ラベルがすべて離散的な分類設定のみに焦点を当てていた。
本稿では,各トレーニング例に実値付き候補ラベルのセットをアノテートした部分ラベル回帰を初めて検討する。
- 参考スコア(独自算出の注目度): 54.74984751371617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partial-label learning is a popular weakly supervised learning setting that
allows each training example to be annotated with a set of candidate labels.
Previous studies on partial-label learning only focused on the classification
setting where candidate labels are all discrete, which cannot handle continuous
labels with real values. In this paper, we provide the first attempt to
investigate partial-label regression, where each training example is annotated
with a set of real-valued candidate labels. To solve this problem, we first
propose a simple baseline method that takes the average loss incurred by
candidate labels as the predictive loss. The drawback of this method lies in
that the loss incurred by the true label may be overwhelmed by other false
labels. To overcome this drawback, we propose an identification method that
takes the least loss incurred by candidate labels as the predictive loss. We
further improve it by proposing a progressive identification method to
differentiate candidate labels using progressively updated weights for incurred
losses. We prove that the latter two methods are model-consistent and provide
convergence analyses. Our proposed methods are theoretically grounded and can
be compatible with any models, optimizers, and losses. Experiments validate the
effectiveness of our proposed methods.
- Abstract(参考訳): 部分ラベル学習(Partial-label learning)は、トレーニングサンプルに候補ラベルのセットをアノテート可能な、弱い教師付き学習環境である。
部分ラベル学習に関する従来の研究は、全ての候補ラベルが離散的であり、実際の値で連続ラベルを扱えない分類設定のみに焦点を当てていた。
本稿では,各トレーニング例に実値付き候補ラベルのセットをアノテートした部分ラベル回帰を初めて検討する。
この問題を解決するために,まず,候補ラベルから得られた平均損失を予測損失とする単純なベースライン手法を提案する。
この方法の欠点は、真のラベルによる損失は他の偽ラベルに圧倒される可能性があることである。
この欠点を克服するために,候補ラベルによる最小損失を予測損失とする識別法を提案する。
提案手法は, 劣化の進行的な重み付けを用いて, 候補ラベルを識別するプログレッシブ識別手法を提案することでさらに改善する。
後者の2つの手法がモデル一貫性を示し,収束解析を提供する。
提案手法は理論的に基礎があり,任意のモデル,オプティマイザ,損失と互換性がある。
提案手法の有効性を検証する実験を行った。
関連論文リスト
- Reduction-based Pseudo-label Generation for Instance-dependent Partial Label Learning [41.345794038968776]
本稿では,誤り候補ラベルの影響を軽減するために,リダクションに基づく擬似ラベルを活用することを提案する。
推定モデルから生成した擬似ラベルと比較して,減算に基づく擬似ラベルはベイズ最適分類器との整合性が高いことを示す。
論文 参考訳(メタデータ) (2024-10-28T07:32:20Z) - Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Meta Objective Guided Disambiguation for Partial Label Learning [44.05801303440139]
メタ客観的ガイド型曖昧化(MoGD)を用いたラベル学習のための新しい枠組みを提案する。
MoGDは、小さな検証セットでメタ目標を解くことで、候補ラベルから基底トラスラベルを復元することを目的としている。
提案手法は,通常のSGDを用いた様々なディープネットワークを用いて容易に実装できる。
論文 参考訳(メタデータ) (2022-08-26T06:48:01Z) - Decomposition-based Generation Process for Instance-Dependent Partial
Label Learning [45.133781119468836]
部分ラベル学習(Partial label learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニング例は、その中の1つだけが真である候補ラベルのセットに関連付けられている。
既存のほとんどのアプローチでは、トレーニングサンプルの誤りラベルを候補ラベルとしてランダムに選択し、候補ラベルの生成プロセスを簡単な方法でモデル化する。
候補ラベルの明示的にモデル化された生成プロセスに基づいて,最大Aポストミラー(MAP)を提案する。
論文 参考訳(メタデータ) (2022-04-08T05:18:51Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。