論文の概要: Provably Consistent Partial-Label Learning
- arxiv url: http://arxiv.org/abs/2007.08929v2
- Date: Fri, 23 Oct 2020 11:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 13:12:07.129195
- Title: Provably Consistent Partial-Label Learning
- Title(参考訳): おそらく一貫性のある部分ラベル学習
- Authors: Lei Feng, Jiaqi Lv, Bo Han, Miao Xu, Gang Niu, Xin Geng, Bo An,
Masashi Sugiyama
- Abstract要約: 部分ラベル学習 (Partial-label Learning, PLL) は多クラス分類問題である。
本稿では,候補ラベル集合の第1世代モデルを提案し,一貫性が保証される2つの新しい手法を開発する。
ベンチマークおよび実世界のデータセットの実験は、提案した生成モデルの有効性と2つの方法の有効性を検証する。
- 参考スコア(独自算出の注目度): 120.4734093544867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partial-label learning (PLL) is a multi-class classification problem, where
each training example is associated with a set of candidate labels. Even though
many practical PLL methods have been proposed in the last two decades, there
lacks a theoretical understanding of the consistency of those methods-none of
the PLL methods hitherto possesses a generation process of candidate label
sets, and then it is still unclear why such a method works on a specific
dataset and when it may fail given a different dataset. In this paper, we
propose the first generation model of candidate label sets, and develop two
novel PLL methods that are guaranteed to be provably consistent, i.e., one is
risk-consistent and the other is classifier-consistent. Our methods are
advantageous, since they are compatible with any deep network or stochastic
optimizer. Furthermore, thanks to the generation model, we would be able to
answer the two questions above by testing if the generation model matches given
candidate label sets. Experiments on benchmark and real-world datasets validate
the effectiveness of the proposed generation model and two PLL methods.
- Abstract(参考訳): 部分ラベル学習(partment-label learning, pll)は、各トレーニング例が候補ラベルのセットに関連付けられるマルチクラス分類問題である。
過去20年間、多くの実用的なpllメソッドが提案されてきたが、これらのメソッドの一貫性に関する理論的理解が欠けており、hhertoは、候補ラベルセットの生成プロセスを持っている。
本稿では、候補ラベル集合の第1世代モデルを提案し、証明可能な一貫性を保証する2つの新しいPLL手法、すなわちリスク一貫性と分類整合性を提案する。
我々の手法はディープネットワークや確率最適化と互換性があるので有利である。
さらに、生成モデルにより、生成モデルが与えられた候補ラベルセットと一致するかどうかをテストすることによって、上記の2つの質問に答えることができる。
ベンチマークおよび実世界のデータセットの実験は、提案した生成モデルと2つのPLL法の有効性を検証する。
関連論文リスト
- Appeal: Allow Mislabeled Samples the Chance to be Rectified in Partial Label Learning [55.4510979153023]
部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
誤記されたサンプルの「アペアル」を支援するため,最初の魅力に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-18T09:09:52Z) - Complementary Classifier Induced Partial Label Learning [54.61668156386079]
部分ラベル学習(PLL)では、各トレーニングサンプルは候補ラベルのセットに関連付けられ、そのうち1つのみが有効である。
曖昧さでは、既存の研究は通常、非候補ラベルセットの有効性を十分に調査しない。
本稿では,非候補ラベルを用いて補完的分類器を誘導し,従来の分類器に対する逆関係を自然に形成する。
論文 参考訳(メタデータ) (2023-05-17T02:13:23Z) - Meta Objective Guided Disambiguation for Partial Label Learning [44.05801303440139]
メタ客観的ガイド型曖昧化(MoGD)を用いたラベル学習のための新しい枠組みを提案する。
MoGDは、小さな検証セットでメタ目標を解くことで、候補ラベルから基底トラスラベルを復元することを目的としている。
提案手法は,通常のSGDを用いた様々なディープネットワークを用いて容易に実装できる。
論文 参考訳(メタデータ) (2022-08-26T06:48:01Z) - Progressive Purification for Instance-Dependent Partial Label Learning [37.65717805892473]
部分ラベル学習 (PLL) は、固定だが未知の候補ラベルが正しい候補ラベルのセットでアノテートされた例から、多クラス分類器を訓練することを目的としている。
候補ラベルは常にインスタンス依存であり、インスタンス依存の例で訓練されたモデルが理想的な例に収束できるという理論的保証はない。
本稿では,POP(PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification
論文 参考訳(メタデータ) (2022-06-02T02:07:12Z) - Decomposition-based Generation Process for Instance-Dependent Partial
Label Learning [45.133781119468836]
部分ラベル学習(Partial label learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニング例は、その中の1つだけが真である候補ラベルのセットに関連付けられている。
既存のほとんどのアプローチでは、トレーニングサンプルの誤りラベルを候補ラベルとしてランダムに選択し、候補ラベルの生成プロセスを簡単な方法でモデル化する。
候補ラベルの明示的にモデル化された生成プロセスに基づいて,最大Aポストミラー(MAP)を提案する。
論文 参考訳(メタデータ) (2022-04-08T05:18:51Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Few-Shot Partial-Label Learning [25.609766770479265]
部分ラベル学習(Partial-label Learning, PLL)は、一般的に、過度に注釈付けされたサンプルをトレーニングすることで、耐雑音性のあるマルチクラスを誘導することに焦点を当てている。
既存の数発の学習アルゴリズムはサポートセットの正確なラベルを仮定する。
本稿では,FsPLL (Few-shot Image Learning) というアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-02T07:03:54Z) - Progressive Identification of True Labels for Partial-Label Learning [112.94467491335611]
部分ラベル学習(Partial-label Learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニングインスタンスには、真のラベルである候補ラベルのセットが設けられている。
既存のほとんどの手法は、特定の方法で解決しなければならない制約付き最適化として精巧に設計されており、計算複雑性をビッグデータにスケールアップするボトルネックにしている。
本稿では,モデルと最適化アルゴリズムの柔軟性を備えた分類器の新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T08:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。