論文の概要: Revisiting Sparsity Constraint Under High-Rank Property in Partial Multi-Label Learning
- arxiv url: http://arxiv.org/abs/2505.20938v1
- Date: Tue, 27 May 2025 09:25:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.545685
- Title: Revisiting Sparsity Constraint Under High-Rank Property in Partial Multi-Label Learning
- Title(参考訳): 部分的マルチラベル学習における高ランク特性下での空間制約の再検討
- Authors: Chongjie Si, Yidan Cui, Fuchao Yang, Xiaokang Yang, Wei Shen,
- Abstract要約: 部分的マルチラベル学習(PML)は、各サンプルが候補ラベルセットと関連付けられたシナリオまで、マルチラベル学習パラダイムを拡張している。
既存のPML法はノイズラベル行列の空間性とグランドトラスラベル行列の低ランク性という2つの仮定に依存している。
本稿では,予測されたラベル行列に高階特性を付与しつつ,ノイズラベル行列に空間性制約を導入する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 48.528799044535155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partial Multi-Label Learning (PML) extends the multi-label learning paradigm to scenarios where each sample is associated with a candidate label set containing both ground-truth labels and noisy labels. Existing PML methods commonly rely on two assumptions: sparsity of the noise label matrix and low-rankness of the ground-truth label matrix. However, these assumptions are inherently conflicting and impractical for real-world scenarios, where the true label matrix is typically full-rank or close to full-rank. To address these limitations, we demonstrate that the sparsity constraint contributes to the high-rank property of the predicted label matrix. Based on this, we propose a novel method Schirn, which introduces a sparsity constraint on the noise label matrix while enforcing a high-rank property on the predicted label matrix. Extensive experiments demonstrate the superior performance of Schirn compared to state-of-the-art methods, validating its effectiveness in tackling real-world PML challenges.
- Abstract(参考訳): Partial Multi-Label Learning (PML) はマルチラベル学習のパラダイムを、各サンプルが基底構造ラベルと雑音ラベルの両方を含む候補ラベルセットと関連付けられたシナリオに拡張する。
既存のPML法は、ノイズラベル行列の空間性とグランドトラスラベル行列の低ランク性という2つの仮定に依存している。
しかしながら、これらの仮定は本質的に矛盾しており、真のラベル行列が典型的にはフルランクまたはフルランクに近い実世界のシナリオでは非現実的である。
これらの制約に対処するため、スペーサ性制約が予測されたラベル行列の高次特性に寄与することを示した。
そこで本研究では,予測されたラベル行列に高階特性を付与しつつ,ノイズラベル行列にスペーサ性制約を導入する新しい手法Schirnを提案する。
大規模な実験は、最先端の手法と比較してSchirnの優れた性能を示し、実世界のPML課題に取り組む上での有効性を検証している。
関連論文リスト
- Mixed Blessing: Class-Wise Embedding guided Instance-Dependent Partial Label Learning [53.64180787439527]
部分ラベル学習(PLL)では、各サンプルは、基底トラスラベルと複数のノイズラベルからなる候補ラベルセットに関連付けられている。
初めて、各サンプルに対してクラスワイドな埋め込みを作成し、インスタンス依存のノイズラベルの関係を調査できるようにします。
ラベルの曖昧さを低減するため,グローバルな特徴情報を含むクラスプロトタイプのコンセプトを紹介した。
論文 参考訳(メタデータ) (2024-12-06T13:25:39Z) - Multi-Label Noise Transition Matrix Estimation with Label Correlations:
Theory and Algorithm [73.94839250910977]
ノイズの多いマルチラベル学習は、大規模な正確なラベルの収集によって生じる課題により、注目を集めている。
遷移行列の導入は、マルチラベルノイズをモデル化し、統計的に一貫したアルゴリズムの開発に役立つ。
そこで本稿では, アンカーポイントを必要とせずに, ラベル相関を利用した新しい推定器を提案する。
論文 参考訳(メタデータ) (2023-09-22T08:35:38Z) - Deep Partial Multi-Label Learning with Graph Disambiguation [27.908565535292723]
grAph-disambIguatioN (PLAIN) を用いた新しいディープ部分多重ラベルモデルを提案する。
具体的には、ラベルの信頼性を回復するために、インスタンスレベルとラベルレベルの類似性を導入する。
各トレーニングエポックでは、ラベルがインスタンスとラベルグラフに伝播し、比較的正確な擬似ラベルを生成する。
論文 参考訳(メタデータ) (2023-05-10T04:02:08Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Partial Multi-label Learning with Label and Feature Collaboration [21.294791188490056]
部分的マルチラベル学習(PML)は、各トレーニングインスタンスに候補ラベルのセットをアノテートするシナリオをモデル化する。
PMLデータに対する信頼性のある予測器を実現するため,PML-LFC (Partial Multi-label Learning with Label and Feature Collaboration)を提案する。
PML-LFCは、ラベルと特徴空間の両方から類似性を用いて、各インスタンスの関連ラベルの信頼性値を推定する。
論文 参考訳(メタデータ) (2020-03-17T08:34:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。