論文の概要: Diffusion Disambiguation Models for Partial Label Learning
- arxiv url: http://arxiv.org/abs/2507.00411v1
- Date: Tue, 01 Jul 2025 03:53:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.262809
- Title: Diffusion Disambiguation Models for Partial Label Learning
- Title(参考訳): 部分ラベル学習のための拡散曖昧化モデル
- Authors: Jinfu Fan, Xiaohui Zhong, Kangrui Ren, Jiangnan Li, Linqing Huang,
- Abstract要約: あいまいなラベルからの学習は、実践的な機械学習アプリケーションにおける長年の問題である。
本稿では,様々な世代タスクにおける拡散モデルの顕著な性能に着想を得て,あいまいなラベルを識別する可能性を探る。
本稿では、まず、インスタンスとラベル間の潜在的な相補的情報を利用するDDMP(Emphdiffusion Disambiguation Model for DDMP)を提案する。
- 参考スコア(独自算出の注目度): 7.869159280247732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning from ambiguous labels is a long-standing problem in practical machine learning applications. The purpose of \emph{partial label learning} (PLL) is to identify the ground-truth label from a set of candidate labels associated with a given instance. Inspired by the remarkable performance of diffusion models in various generation tasks, this paper explores their potential to denoise ambiguous labels through the reverse denoising process. Therefore, this paper reformulates the label disambiguation problem from the perspective of generative models, where labels are generated by iteratively refining initial random guesses. This perspective enables the diffusion model to learn how label information is generated stochastically. By modeling the generation uncertainty, we can use the maximum likelihood estimate of the label for classification inference. However, such ambiguous labels lead to a mismatch between instance and label, which reduces the quality of generated data. To address this issue, this paper proposes a \emph{diffusion disambiguation model for PLL} (DDMP), which first uses the potential complementary information between instances and labels to construct pseudo-clean labels for initial diffusion training. Furthermore, a transition-aware matrix is introduced to estimate the potential ground-truth labels, which are dynamically updated during the diffusion generation. During training, the ground-truth label is progressively refined, improving the classifier. Experiments show the advantage of the DDMP and its suitability for PLL.
- Abstract(参考訳): あいまいなラベルからの学習は、実践的な機械学習アプリケーションにおける長年の問題である。
The purpose of \emph{partial label learning} (PLL) is to identified the ground-truth label from a set of candidate labels associated with a example。
各種タスクにおける拡散モデルの顕著な性能にインスパイアされた本研究では,逆復調過程を通じて曖昧なラベルを識別する可能性を探る。
そこで本論文では,初期乱数推定を反復的に精算することによってラベルが生成される生成モデルの観点から,ラベルの曖昧さの問題を再検討する。
この観点により、拡散モデルは、ラベル情報が統計的にどのように生成されるかを学ぶことができる。
生成の不確かさをモデル化することにより、分類推論にラベルの最大推定値を用いることができる。
しかし、そのようなあいまいなラベルは、インスタンスとラベルのミスマッチを引き起こすため、生成されたデータの品質が低下する。
そこで本論文では,PLL(DDMP)に対するemph{diffusion disambiguation modelを提案する。
さらに,拡散発生時に動的に更新される潜在的な基底構造ラベルを推定するために,遷移対応行列を導入する。
訓練中、グランドトラスラベルは徐々に洗練され、分類器が改良される。
DDMPの利点とPLLに対する適合性を示す実験を行った。
関連論文リスト
- Humans Hallucinate Too: Language Models Identify and Correct Subjective Annotation Errors With Label-in-a-Haystack Prompts [26.415262737856967]
大規模言語モデル(LLM)を用いた文脈におけるラベル検証について検討する。
主観的ラベル補正のためのLiaHR(Label-in-a-Haystack Rectification)フレームワークを提案する。
このアプローチは、信号と雑音の比率を高めるために、アノテーションパイプラインに統合することができる。
論文 参考訳(メタデータ) (2025-05-22T18:55:22Z) - Reduction-based Pseudo-label Generation for Instance-dependent Partial Label Learning [41.345794038968776]
本稿では,誤り候補ラベルの影響を軽減するために,リダクションに基づく擬似ラベルを活用することを提案する。
推定モデルから生成した擬似ラベルと比較して,減算に基づく擬似ラベルはベイズ最適分類器との整合性が高いことを示す。
論文 参考訳(メタデータ) (2024-10-28T07:32:20Z) - Inaccurate Label Distribution Learning with Dependency Noise [52.08553913094809]
本稿では,依存雑音に基づく不正確なラベル分布学習(DN-ILDL)フレームワークを導入し,ラベル分布学習におけるノイズによる課題に対処する。
本稿では,DN-ILDLがILDL問題に効果的に対処し,既存のLCL法より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T07:58:07Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Label distribution learning via label correlation grid [9.340734188957727]
ラベル関係の不確かさをモデル化するための textbfLabel textbfCorrelation textbfGrid (LCG) を提案する。
我々のネットワークはLCGを学習し、各インスタンスのラベル分布を正確に推定する。
論文 参考訳(メタデータ) (2022-10-15T03:58:15Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。