論文の概要: Mitigating Instance Entanglement in Instance-Dependent Partial Label Learning
- arxiv url: http://arxiv.org/abs/2603.04825v1
- Date: Thu, 05 Mar 2026 05:19:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.085972
- Title: Mitigating Instance Entanglement in Instance-Dependent Partial Label Learning
- Title(参考訳): インスタンス依存型部分ラベル学習におけるインスタンスの絡み合いの軽減
- Authors: Rui Zhao, Bin Shi, Kai Sun, Bo Dong,
- Abstract要約: 部分ラベル学習は、弱い教師付き分類タスクであり、各トレーニングインスタンスに、候補ラベルのセットをあいまいにラベル付けする。
実世界のシナリオでは、候補ラベルは多くの場合、インスタンス機能の影響を受け、インスタンス依存(ID-PLL)の出現につながる。
本稿では,クラス内およびクラス間規制の双方によるインスタンスの絡み合いに対処する,クラス固有の拡張に基づく分散化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 24.462161841485635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partial label learning is a prominent weakly supervised classification task, where each training instance is ambiguously labeled with a set of candidate labels. In real-world scenarios, candidate labels are often influenced by instance features, leading to the emergence of instance-dependent PLL (ID-PLL), a setting that more accurately reflects this relationship. A significant challenge in ID-PLL is instance entanglement, where instances from similar classes share overlapping features and candidate labels, resulting in increased class confusion. To address this issue, we propose a novel Class-specific Augmentation based Disentanglement (CAD) framework, which tackles instance entanglement by both intra- and inter-class regulations. For intra-class regulation, CAD amplifies class-specific features to generate class-wise augmentations and aligns same-class augmentations across instances. For inter-class regulation, CAD introduces a weighted penalty loss function that applies stronger penalties to more ambiguous labels, encouraging larger inter-class distances. By jointly applying intra- and inter-class regulations, CAD improves the clarity of class boundaries and reduces class confusion caused by entanglement. Extensive experimental results demonstrate the effectiveness of CAD in mitigating the entanglement problem and enhancing ID-PLL performance. The code is available at https://github.com/RyanZhaoIc/CAD.git.
- Abstract(参考訳): 部分ラベル学習(Partial label learning)は、個々のトレーニングインスタンスに、候補ラベルのセットをあいまいにラベル付けする、顕著な教師付き分類タスクである。
現実のシナリオでは、候補ラベルは多くの場合、インスタンス機能の影響を受け、インスタンス依存型PLL(ID-PLL)が出現する。
ID-PLLにおける重要な課題は、類似クラスのインスタンスが重複する機能と候補ラベルを共有し、結果としてクラスが混乱する、インスタンスの絡み合いである。
この問題に対処するために,クラス内およびクラス間規制の双方によるインスタンスの絡み合いに対処する,クラス固有の拡張ベース・ディスタングル(CAD)フレームワークを提案する。
クラス内規則では、CADはクラス固有の機能を増幅し、クラスワイド拡張を生成し、インスタンス間で同じクラス拡張を調整する。
クラス間の規制のためにCADは、より曖昧なラベルに強い罰則を適用する重み付きペナルティ損失関数を導入し、クラス間の距離を大きくする。
CADはクラス内およびクラス間規則を併用することにより,クラス境界の明確性を高め,絡み合いによるクラス混乱を低減する。
大規模実験により,CADが絡み込み問題を緩和し,ID-PLL性能を向上させる効果が示された。
コードはhttps://github.com/RyanZhaoIc/CAD.gitで入手できる。
関連論文リスト
- Class-Independent Increment: An Efficient Approach for Multi-label Class-Incremental Learning [49.65841002338575]
本稿では,MLCIL(Multi-label class-incremental Learning)問題に焦点をあてる。
マルチラベルサンプルに対して複数のクラスレベルの埋め込みを抽出する新しいクラス独立インクリメンタルネットワーク(CINet)を提案する。
クラス固有のトークンを構築することで、異なるクラスの知識を学び、保存する。
論文 参考訳(メタデータ) (2025-03-01T14:40:52Z) - Exploration of Class Center for Fine-Grained Visual Classification [7.120809788357261]
きめ細かい視覚分類は、クラス内差と微妙なクラス間差のために難しい課題である。
本稿では,複数のクラス中心制約とクラス中心ラベル生成からなるクラス中心探索という損失関数を提案する。
本手法は,損失関数として既存の細粒度視覚分類手法と容易に統合でき,トレーニングコストをわずかに抑えることで,さらに優れた性能を向上することができる。
論文 参考訳(メタデータ) (2024-07-05T04:11:09Z) - Learning Label Hierarchy with Supervised Contrastive Learning [8.488965459026678]
教師付きコントラスト学習(SCL)フレームワークは、各クラスを独立したものとして扱うため、すべてのクラスが等しく重要であるとみなす。
本稿では,クラス間の類似性を利用して階層情報をSCLに組み込んだラベル認識型SCL手法(LASCL)のファミリーを紹介する。
3つのデータセットに対する実験により、提案したLASCLは、複数ラベルの1つのラベルを区別するテキスト分類にうまく機能することが示された。
論文 参考訳(メタデータ) (2024-01-31T23:21:40Z) - Three Heads Are Better Than One: Complementary Experts for Long-Tailed Semi-supervised Learning [74.44500692632778]
本稿では,様々なクラス分布をモデル化するComPlementary Experts (CPE) を提案する。
CPEは、CIFAR-10-LT、CIFAR-100-LT、STL-10-LTのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-25T11:54:07Z) - Triplet Contrastive Learning for Unsupervised Vehicle Re-identification [55.445358749042384]
部分的特徴学習は、車両の再識別におけるセマンティック理解にとって重要な技術である。
本稿では,クラスタ機能を活用したTCL(Triplet Contrastive Learning framework)を提案する。
論文 参考訳(メタデータ) (2023-01-23T15:52:12Z) - Complementary Labels Learning with Augmented Classes [22.460256396941528]
補完ラベル学習 (Complementary Labels Learning, CLL) は、プライベート質問分類やオンライン学習など、現実世界の多くのタスクに現れる。
CLLAC(Complementary Labels Learning with Augmented Classs)と呼ばれる新しい問題設定を提案する。
ラベルのないデータを用いて,CLLACの分類リスクの偏りのない推定手法を提案する。
論文 参考訳(メタデータ) (2022-11-19T13:55:27Z) - On Non-Random Missing Labels in Semi-Supervised Learning [114.62655062520425]
Semi-Supervised Learning (SSL)は基本的にラベルの問題である。
SSL に "class" を明示的に組み込んでいます。
提案手法は,既存のベースラインを著しく上回るだけでなく,他のラベルバイアス除去SSL法を上回ります。
論文 参考訳(メタデータ) (2022-06-29T22:01:29Z) - Learning to Detect Instance-level Salient Objects Using Complementary
Image Labels [55.049347205603304]
本報告では,本問題に対する第1の弱教師付きアプローチを提案する。
本稿では,候補対象の特定にクラス整合性情報を活用するSaliency Detection Branch,オブジェクト境界をデライン化するためにクラス整合性情報を利用するBundary Detection Branch,サブティナイズ情報を用いたCentroid Detection Branchを提案する。
論文 参考訳(メタデータ) (2021-11-19T10:15:22Z) - Orthogonal Projection Loss [59.61277381836491]
直交射影損失(OPL)と呼ばれる新しい損失関数を開発する。
OPLは、機能空間におけるクラス内クラスタリングとクラス間分離を直接実施する。
OPLは、慎重な負のマイニングを必要とせず、バッチサイズに敏感であるため、ユニークな利点がある。
論文 参考訳(メタデータ) (2021-03-25T17:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。