論文の概要: Inaccurate Label Distribution Learning with Dependency Noise
- arxiv url: http://arxiv.org/abs/2405.16474v1
- Date: Sun, 26 May 2024 07:58:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 20:58:51.710182
- Title: Inaccurate Label Distribution Learning with Dependency Noise
- Title(参考訳): 依存雑音を考慮した不正確なラベル分布学習
- Authors: Zhiqiang Kou, Jing Wang, Yuheng Jia, Xin Geng,
- Abstract要約: 本稿では,依存雑音に基づく不正確なラベル分布学習(DN-ILDL)フレームワークを導入し,ラベル分布学習におけるノイズによる課題に対処する。
本稿では,DN-ILDLがILDL問題に効果的に対処し,既存のLCL法より優れていることを示す。
- 参考スコア(独自算出の注目度): 52.08553913094809
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce the Dependent Noise-based Inaccurate Label Distribution Learning (DN-ILDL) framework to tackle the challenges posed by noise in label distribution learning, which arise from dependencies on instances and labels. We start by modeling the inaccurate label distribution matrix as a combination of the true label distribution and a noise matrix influenced by specific instances and labels. To address this, we develop a linear mapping from instances to their true label distributions, incorporating label correlations, and decompose the noise matrix using feature and label representations, applying group sparsity constraints to accurately capture the noise. Furthermore, we employ graph regularization to align the topological structures of the input and output spaces, ensuring accurate reconstruction of the true label distribution matrix. Utilizing the Alternating Direction Method of Multipliers (ADMM) for efficient optimization, we validate our method's capability to recover true labels accurately and establish a generalization error bound. Extensive experiments demonstrate that DN-ILDL effectively addresses the ILDL problem and outperforms existing LDL methods.
- Abstract(参考訳): 本稿では,DN-ILDL(Dependent Noise-based Inaccurate Label Distribution Learning)フレームワークについて紹介する。
まず,不正確なラベル分布行列を,特定の事例やラベルに影響された真のラベル分布と雑音行列の組み合わせとしてモデル化することから始める。
そこで我々は,特徴量とラベル表現を用いた雑音行列の分解を行い,雑音を正確に捉えるために群間隔制約を適用した。
さらに,入力空間と出力空間のトポロジ構造を整列させ,真のラベル分布行列の正確な再構成を保証する。
効率的な最適化のために,alternating Direction Method of Multipliers (ADMM) を用いて,真のラベルを正確に復元し,一般化誤差境界を確立する手法の有効性を検証する。
拡張実験により、DN-ILDLはILDL問題に効果的に対処し、既存のLCL法より優れていることが示された。
関連論文リスト
- Reduction-based Pseudo-label Generation for Instance-dependent Partial Label Learning [41.345794038968776]
本稿では,誤り候補ラベルの影響を軽減するために,リダクションに基づく擬似ラベルを活用することを提案する。
推定モデルから生成した擬似ラベルと比較して,減算に基づく擬似ラベルはベイズ最適分類器との整合性が高いことを示す。
論文 参考訳(メタデータ) (2024-10-28T07:32:20Z) - Towards Better Performance in Incomplete LDL: Addressing Data Imbalance [48.54894491724677]
我々は,不完全なラベルと不均衡なラベル分布を同時に扱うフレームワークであるtextIncomplete and Im Balance Label Distribution Learning (I(2)LDL)を提案する。
本手法は, ラベル分布行列を, 頻繁なラベルのための低ランク成分と希少なラベルのためのスパース成分に分解し, 頭部と尾部のラベルの構造を効果的に把握する。
論文 参考訳(メタデータ) (2024-10-17T14:12:57Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Label distribution learning via label correlation grid [9.340734188957727]
ラベル関係の不確かさをモデル化するための textbfLabel textbfCorrelation textbfGrid (LCG) を提案する。
我々のネットワークはLCGを学習し、各インスタンスのラベル分布を正確に推定する。
論文 参考訳(メタデータ) (2022-10-15T03:58:15Z) - Label Distribution Learning via Implicit Distribution Representation [12.402054374952485]
本稿では,ラベル分布学習フレームワークにおける暗黙分布を導入し,ラベル値の不確かさを特徴付ける。
具体的には、深い暗黙的表現学習を用いて、ガウス的事前制約を持つラベル分布行列を構築する。
ラベル分布行列の各行成分は、自己アテンションアルゴリズムを用いて標準ラベル分布形式に変換される。
論文 参考訳(メタデータ) (2022-09-28T04:13:53Z) - Plug-and-Play Pseudo Label Correction Network for Unsupervised Person
Re-identification [36.3733132520186]
グラフベースの擬似ラベル補正ネットワーク(GLC)を提案する。
GLC は k 近傍グラフ上のサンプル間の関係制約を用いて初期雑音ラベルを補正する。
本手法は,様々なクラスタリング手法と互換性があり,最新技術の性能を継続的に向上させる。
論文 参考訳(メタデータ) (2022-06-14T05:59:37Z) - Instance-dependent Label-noise Learning under a Structural Causal Model [92.76400590283448]
ラベルノイズはディープラーニングアルゴリズムの性能を劣化させる。
構造因果モデルを活用することにより,実例依存型ラベルノイズ学習のための新しい生成手法を提案する。
論文 参考訳(メタデータ) (2021-09-07T10:42:54Z) - Extended T: Learning with Mixed Closed-set and Open-set Noisy Labels [86.5943044285146]
ラベルノイズ遷移行列$T$は、真のラベルがノイズのあるものへと反転する確率を反映する。
本稿では,閉集合と開集合の混在したラベル雑音下での学習に着目した。
本手法は,従来の最先端のラベル雑音学習法よりも頑健な性能を追求し,混合ラベル雑音をモデル化する。
論文 参考訳(メタデータ) (2020-12-02T02:42:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。