論文の概要: Concentration Distribution Learning from Label Distributions
- arxiv url: http://arxiv.org/abs/2505.21576v1
- Date: Tue, 27 May 2025 07:53:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.17992
- Title: Concentration Distribution Learning from Label Distributions
- Title(参考訳): ラベル分布からの濃度分布学習
- Authors: Jiawei Tang, Yuheng Jia,
- Abstract要約: ラベル分布の絶対記述度項として機能する背景濃度という新しい概念を考案した。
本稿では,既存のLCLデータセットからラベル分布と背景濃度を学習するための確率論的手法とニューラルネットワークによる新しいモデルを提案する。
- 参考スコア(独自算出の注目度): 19.650545340162726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Label distribution learning (LDL) is an effective method to predict the relative label description degree (a.k.a. label distribution) of a sample. However, the label distribution is not a complete representation of an instance because it overlooks the absolute intensity of each label. Specifically, it's impossible to obtain the total description degree of hidden labels that not in the label space, which leads to the loss of information and confusion in instances. To solve the above problem, we come up with a new concept named background concentration to serve as the absolute description degree term of the label distribution and introduce it into the LDL process, forming the improved paradigm of concentration distribution learning. Moreover, we propose a novel model by probabilistic methods and neural networks to learn label distributions and background concentrations from existing LDL datasets. Extensive experiments prove that the proposed approach is able to extract background concentrations from label distributions while producing more accurate prediction results than the state-of-the-art LDL methods. The code is available in https://github.com/seutjw/CDL-LD.
- Abstract(参考訳): ラベル分布学習(LDL)は、サンプルの相対的なラベル記述度(ラベル分布)を予測する効果的な方法である。
しかし、ラベル分布は各ラベルの絶対強度を無視するため、インスタンスの完全な表現ではない。
具体的には、ラベル空間にない隠されたラベルの総記述度を取得することは不可能であり、それによって情報の喪失やインスタンスの混乱につながる。
この問題を解決するため,ラベル分布の絶対記述度項として,背景濃度という新しい概念を考案し,LDLプロセスに導入し,集中分布学習のパラダイムを改良した。
さらに,既存のLCLデータセットからラベル分布と背景濃度を学習するための確率論的手法とニューラルネットワークによる新しいモデルを提案する。
大規模実験により,提案手法はラベル分布から背景濃度を抽出し,最先端のLCL法よりも精度の高い予測結果が得られることが示された。
コードはhttps://github.com/seutjw/CDL-LDで公開されている。
関連論文リスト
- Label Distribution Learning with Biased Annotations by Learning Multi-Label Representation [120.97262070068224]
マルチラベル学習(MLL)は,実世界のデータ表現能力に注目されている。
ラベル分布学習(LDL)は正確なラベル分布の収集において課題に直面している。
論文 参考訳(メタデータ) (2025-02-03T09:04:03Z) - Towards Better Performance in Incomplete LDL: Addressing Data Imbalance [48.54894491724677]
我々は,不完全なラベルと不均衡なラベル分布を同時に扱うフレームワークであるtextIncomplete and Im Balance Label Distribution Learning (I(2)LDL)を提案する。
本手法は, ラベル分布行列を, 頻繁なラベルのための低ランク成分と希少なラベルのためのスパース成分に分解し, 頭部と尾部のラベルの構造を効果的に把握する。
論文 参考訳(メタデータ) (2024-10-17T14:12:57Z) - Inaccurate Label Distribution Learning with Dependency Noise [52.08553913094809]
本稿では,依存雑音に基づく不正確なラベル分布学習(DN-ILDL)フレームワークを導入し,ラベル分布学習におけるノイズによる課題に対処する。
本稿では,DN-ILDLがILDL問題に効果的に対処し,既存のLCL法より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T07:58:07Z) - Label Distribution Learning from Logical Label [19.632157794117553]
ラベル分布学習(LDL)は、サンプルのラベル記述度(ラベル分布)を予測する効果的な方法である。
しかし、トレーニングサンプルのラベル分布のアノテートは非常にコストがかかる。
論理ラベルから直接LDLモデルを学習する新しい手法を提案し,LEとLDLを結合モデルに統一する。
論文 参考訳(メタデータ) (2023-03-13T04:31:35Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Label distribution learning via label correlation grid [9.340734188957727]
ラベル関係の不確かさをモデル化するための textbfLabel textbfCorrelation textbfGrid (LCG) を提案する。
我々のネットワークはLCGを学習し、各インスタンスのラベル分布を正確に推定する。
論文 参考訳(メタデータ) (2022-10-15T03:58:15Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。