論文の概要: Appeal: Allow Mislabeled Samples the Chance to be Rectified in Partial Label Learning
- arxiv url: http://arxiv.org/abs/2312.11034v3
- Date: Thu, 28 Mar 2024 04:46:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 21:02:36.397668
- Title: Appeal: Allow Mislabeled Samples the Chance to be Rectified in Partial Label Learning
- Title(参考訳): 上訴: 部分的なラベル学習において, 修正すべき文字を誤記したサンプルを付与する
- Authors: Chongjie Si, Xuehui Wang, Yan Wang, Xiaokang Yang, Wei Shen,
- Abstract要約: 部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
誤記されたサンプルの「アペアル」を支援するため,最初の魅力に基づくフレームワークを提案する。
- 参考スコア(独自算出の注目度): 55.4510979153023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In partial label learning (PLL), each instance is associated with a set of candidate labels among which only one is ground-truth. The majority of the existing works focuses on constructing robust classifiers to estimate the labeling confidence of candidate labels in order to identify the correct one. However, these methods usually struggle to identify and rectify mislabeled samples. To help these mislabeled samples "appeal" for themselves and help existing PLL methods identify and rectify mislabeled samples, in this paper, we propose the first appeal-based PLL framework. Specifically, we introduce a novel partner classifier and instantiate it predicated on the implicit fact that non-candidate labels of a sample should not be assigned to it, which is inherently accurate and has not been fully investigated in PLL. Furthermore, a novel collaborative term is formulated to link the base classifier and the partner one. During each stage of mutual supervision, both classifiers will blur each other's predictions through a blurring mechanism to prevent overconfidence in a specific label. Extensive experiments demonstrate that the appeal and disambiguation ability of several well-established stand-alone and deep-learning based PLL approaches can be significantly improved by coupling with this learning paradigm.
- Abstract(参考訳): 部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
既存の研究の大部分は、正しいラベルを識別するために、候補ラベルのラベル付け信頼度を推定するために、堅牢な分類器を構築することに焦点を当てている。
しかしながら、これらの手法は、通常、誤ってラベル付けされたサンプルを特定し、修正するのに苦労する。
そこで本論文では,これらの誤記されたサンプルを自身で「適用」し,既存のPLLメソッドが誤記されたサンプルを識別・修正するのを助けるために,最初の魅力に基づくPLLフレームワークを提案する。
具体的には、新規なパートナー分類器を導入し、サンプルの非候補ラベルを割り当てるべきではないという暗黙の事実に基づいてインスタンス化する。
さらに、ベース分類器とパートナー分類器を結びつけるために、新しい協調用語が定式化される。
相互監督の各段階において、双方の分類器は、特定のラベルの過信を防ぐために、曖昧なメカニズムを通じてお互いの予測を曖昧にする。
広汎な実験により、この学習パラダイムと組み合わせることで、確立されたスタンドアローンおよび深層学習に基づくPLLアプローチの魅力と曖昧さを著しく改善できることが示されている。
関連論文リスト
- Robust Representation Learning for Unreliable Partial Label Learning [86.909511808373]
部分ラベル学習(Partial Label Learning, PLL)は、弱い教師付き学習の一種で、各トレーニングインスタンスに候補ラベルのセットが割り当てられる。
これはUn Reliable partial Label Learning (UPLL) と呼ばれ、部分ラベルの本質的な信頼性の欠如とあいまいさにより、さらなる複雑さをもたらす。
本研究では,信頼できない部分ラベルに対するモデル強化を支援するために,信頼性に欠けるコントラスト学習を活用するUnreliability-Robust Representation Learning framework(URRL)を提案する。
論文 参考訳(メタデータ) (2023-08-31T13:37:28Z) - Complementary Classifier Induced Partial Label Learning [54.61668156386079]
部分ラベル学習(PLL)では、各トレーニングサンプルは候補ラベルのセットに関連付けられ、そのうち1つのみが有効である。
曖昧さでは、既存の研究は通常、非候補ラベルセットの有効性を十分に調査しない。
本稿では,非候補ラベルを用いて補完的分類器を誘導し,従来の分類器に対する逆関係を自然に形成する。
論文 参考訳(メタデータ) (2023-05-17T02:13:23Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Unreliable Partial Label Learning with Recursive Separation [44.901941653899264]
信頼できない部分ラベル学習(UPLL)が提案され、真のラベルが候補ラベルセットに含まれない可能性がある。
再帰分離を伴う信頼できない部分ラベル学習(UPLLRS)という2段階のフレームワークを提案する。
本手法は,実験結果によって実証された最先端性能を示す。
論文 参考訳(メタデータ) (2023-02-20T10:39:31Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Decomposition-based Generation Process for Instance-Dependent Partial
Label Learning [45.133781119468836]
部分ラベル学習(Partial label learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニング例は、その中の1つだけが真である候補ラベルのセットに関連付けられている。
既存のほとんどのアプローチでは、トレーニングサンプルの誤りラベルを候補ラベルとしてランダムに選択し、候補ラベルの生成プロセスを簡単な方法でモデル化する。
候補ラベルの明示的にモデル化された生成プロセスに基づいて,最大Aポストミラー(MAP)を提案する。
論文 参考訳(メタデータ) (2022-04-08T05:18:51Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。