論文の概要: Partial-label Learning with Mixed Closed-set and Open-set
Out-of-candidate Examples
- arxiv url: http://arxiv.org/abs/2307.00553v1
- Date: Sun, 2 Jul 2023 12:27:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 15:27:19.658269
- Title: Partial-label Learning with Mixed Closed-set and Open-set
Out-of-candidate Examples
- Title(参考訳): クローズドセットとオープンセットの併用による部分ラベル学習
- Authors: Shuo He, Lei Feng, Guowu Yang
- Abstract要約: 部分ラベル学習は、各トレーニング例の真のラベルが候補ラベルセットになければならないという重要な仮定に依存している。
この制限的な仮定は、複雑な実世界のシナリオで破られる可能性があり、したがって収集されたいくつかの実例の真のラベルは、割り当てられた候補のラベルセットの外側に予期せず置かれる可能性がある。
本稿では,真のラベルがOOC (out-of-candidate) の例の外部にある事例を述べるとともに,OOCの例から学ぶための新たな研究の先駆者となる。
- 参考スコア(独自算出の注目度): 13.22730251819167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partial-label learning (PLL) relies on a key assumption that the true label
of each training example must be in the candidate label set. This restrictive
assumption may be violated in complex real-world scenarios, and thus the true
label of some collected examples could be unexpectedly outside the assigned
candidate label set. In this paper, we term the examples whose true label is
outside the candidate label set OOC (out-of-candidate) examples, and pioneer a
new PLL study to learn with OOC examples. We consider two types of OOC examples
in reality, i.e., the closed-set/open-set OOC examples whose true label is
inside/outside the known label space. To solve this new PLL problem, we first
calculate the wooden cross-entropy loss from candidate and non-candidate labels
respectively, and dynamically differentiate the two types of OOC examples based
on specially designed criteria. Then, for closed-set OOC examples, we conduct
reversed label disambiguation in the non-candidate label set; for open-set OOC
examples, we leverage them for training by utilizing an effective
regularization strategy that dynamically assigns random candidate labels from
the candidate label set. In this way, the two types of OOC examples can be
differentiated and further leveraged for model training. Extensive experiments
demonstrate that our proposed method outperforms state-of-the-art PLL methods.
- Abstract(参考訳): 部分ラベル学習(PLL)は、各トレーニング例の真のラベルが候補ラベルセットになければならないという重要な仮定に依存する。
この制限的な仮定は、複雑な実世界のシナリオで破られる可能性があり、したがって収集されたいくつかの実例の真のラベルは、割り当てられた候補のラベルセットの外側に予期せず置かれる可能性がある。
本稿では, 真のラベルがOOC (out-of-candidate) の例の外部にある事例を述べるとともに, OOC の例から学ぶための新たな PLL 研究の先駆者となる。
実際、実例では、真のラベルが既知のラベル空間の内外にある閉集合/開集合 ooc の例の2つのタイプを考える。
この新たなPLL問題を解決するために,まず候補ラベルと非候補ラベルからの木製クロスエントロピー損失を計算し,特殊設計基準に基づいて2種類のOCO例を動的に識別する。
そして、閉集合OCCの場合、非候補ラベルセットで逆ラベル曖昧化を行い、オープンセットOCCの場合、候補ラベルセットからランダムな候補ラベルを動的に割り当てる効果的な正規化戦略を利用してトレーニングを行う。
このように、OOCの2種類の例を区別し、モデルトレーニングにさらに活用することができる。
実験の結果,提案手法は最先端のPLL法よりも優れていた。
関連論文リスト
- Appeal: Allow Mislabeled Samples the Chance to be Rectified in Partial Label Learning [55.4510979153023]
部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
誤記されたサンプルの「アペアル」を支援するため,最初の魅力に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-18T09:09:52Z) - Complementary Classifier Induced Partial Label Learning [54.61668156386079]
部分ラベル学習(PLL)では、各トレーニングサンプルは候補ラベルのセットに関連付けられ、そのうち1つのみが有効である。
曖昧さでは、既存の研究は通常、非候補ラベルセットの有効性を十分に調査しない。
本稿では,非候補ラベルを用いて補完的分類器を誘導し,従来の分類器に対する逆関係を自然に形成する。
論文 参考訳(メタデータ) (2023-05-17T02:13:23Z) - Progressive Purification for Instance-Dependent Partial Label Learning [37.65717805892473]
部分ラベル学習 (PLL) は、固定だが未知の候補ラベルが正しい候補ラベルのセットでアノテートされた例から、多クラス分類器を訓練することを目的としている。
候補ラベルは常にインスタンス依存であり、インスタンス依存の例で訓練されたモデルが理想的な例に収束できるという理論的保証はない。
本稿では,POP(PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification
論文 参考訳(メタデータ) (2022-06-02T02:07:12Z) - Decomposition-based Generation Process for Instance-Dependent Partial
Label Learning [45.133781119468836]
部分ラベル学習(Partial label learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニング例は、その中の1つだけが真である候補ラベルのセットに関連付けられている。
既存のほとんどのアプローチでは、トレーニングサンプルの誤りラベルを候補ラベルとしてランダムに選択し、候補ラベルの生成プロセスを簡単な方法でモデル化する。
候補ラベルの明示的にモデル化された生成プロセスに基づいて,最大Aポストミラー(MAP)を提案する。
論文 参考訳(メタデータ) (2022-04-08T05:18:51Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Provably Consistent Partial-Label Learning [120.4734093544867]
部分ラベル学習 (Partial-label Learning, PLL) は多クラス分類問題である。
本稿では,候補ラベル集合の第1世代モデルを提案し,一貫性が保証される2つの新しい手法を開発する。
ベンチマークおよび実世界のデータセットの実験は、提案した生成モデルの有効性と2つの方法の有効性を検証する。
論文 参考訳(メタデータ) (2020-07-17T12:19:16Z) - MatchGAN: A Self-Supervised Semi-Supervised Conditional Generative
Adversarial Network [51.84251358009803]
本稿では,条件付き生成逆数ネットワーク(GAN)に対する,半教師付き環境下での自己教師型学習手法を提案する。
利用可能な数少ないラベル付きサンプルのラベル空間から無作為なラベルをサンプリングして拡張を行う。
本手法は,ベースラインのトレーニングに使用したラベル付きサンプルの20%に過ぎません。
論文 参考訳(メタデータ) (2020-06-11T17:14:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。