論文の概要: Exploiting Multi-Label Correlation in Label Distribution Learning
- arxiv url: http://arxiv.org/abs/2308.01742v1
- Date: Thu, 3 Aug 2023 13:06:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 14:09:09.286547
- Title: Exploiting Multi-Label Correlation in Label Distribution Learning
- Title(参考訳): ラベル分布学習におけるマルチラベル相関の活用
- Authors: Zhiqiang Kou jing wang yuheng jia xin geng
- Abstract要約: ラベル分散学習(LDL)は、各インスタンスにラベル分布を割り当てる新しい機械学習パラダイムである。
最近の研究では、ラベル分布行列は一般的にフルランクであり、ローランクのラベル相関を利用した研究に挑戦していることが明らかになっている。
LDL に補助的な MLL プロセスを導入し,低ランクのラベル相関を LDL ではなく MLL で取得する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Label Distribution Learning (LDL) is a novel machine learning paradigm that
assigns label distribution to each instance. Many LDL methods proposed to
leverage label correlation in the learning process to solve the
exponential-sized output space; among these, many exploited the low-rank
structure of label distribution to capture label correlation. However, recent
studies disclosed that label distribution matrices are typically full-rank,
posing challenges to those works exploiting low-rank label correlation. Note
that multi-label is generally low-rank; low-rank label correlation is widely
adopted in multi-label learning (MLL) literature. Inspired by that, we
introduce an auxiliary MLL process in LDL and capture low-rank label
correlation on that MLL rather than LDL. In such a way, low-rank label
correlation is appropriately exploited in our LDL methods. We conduct
comprehensive experiments and demonstrate that our methods are superior to
existing LDL methods. Besides, the ablation studies justify the advantages of
exploiting low-rank label correlation in the auxiliary MLL.
- Abstract(参考訳): ラベル分散学習(LDL)は、各インスタンスにラベル分布を割り当てる新しい機械学習パラダイムである。
学習過程におけるラベル相関を利用して指数関数サイズの出力空間を解き,ラベル分布の低ランク構造を利用してラベル相関を捉える方法が提案されている。
しかし、近年の研究では、ラベル分布行列は一般的にフルランクであり、低ランクのラベル相関を利用した作品に挑戦していることが明らかになっている。
マルチラベルは一般的に低ランクであり、低ランクのラベル相関はマルチラベル学習(mll)の文献で広く採用されている。
そこで本研究では,LCL に補助的な MLL プロセスを導入し,LCL よりも低ランクラベル相関を捉えた。
このように低ランクラベル相関を LDL 法で適切に活用する。
総合的な実験を行い,本手法が既存のldl法よりも優れていることを示す。
さらに, 補助MLLにおける低ランクラベル相関を有効利用することの利点について検討した。
関連論文リスト
- Incremental Label Distribution Learning with Scalable Graph Convolutional Networks [41.02170058889797]
本稿では,ILDL(Incrmental Label Distribution Learning)を導入し,トレーニングサンプルとラベル間関係に関する重要な課題を分析した。
具体的には、新しいラベルの学習を高速化し、ラベル間の関係をグラフとして表現する、新しいラベル対応のグラディエント補償損失を開発する。
論文 参考訳(メタデータ) (2024-11-20T07:49:51Z) - Towards Better Performance in Incomplete LDL: Addressing Data Imbalance [48.54894491724677]
我々は,不完全なラベルと不均衡なラベル分布を同時に扱うフレームワークであるtextIncomplete and Im Balance Label Distribution Learning (I(2)LDL)を提案する。
本手法は, ラベル分布行列を, 頻繁なラベルのための低ランク成分と希少なラベルのためのスパース成分に分解し, 頭部と尾部のラベルの構造を効果的に把握する。
論文 参考訳(メタデータ) (2024-10-17T14:12:57Z) - Inaccurate Label Distribution Learning with Dependency Noise [52.08553913094809]
本稿では,依存雑音に基づく不正確なラベル分布学習(DN-ILDL)フレームワークを導入し,ラベル分布学習におけるノイズによる課題に対処する。
本稿では,DN-ILDLがILDL問題に効果的に対処し,既存のLCL法より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T07:58:07Z) - Contrastive Label Enhancement [13.628665406039609]
コントラスト学習戦略により高次特徴を生成するコントラストラベル拡張(Contrastive Label Enhancement, ConLE)を提案する。
得られた高レベルな特徴を活用し、よく設計されたトレーニング戦略によりラベル分布を得る。
論文 参考訳(メタデータ) (2023-05-16T14:53:07Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Label Distribution Learning from Logical Label [19.632157794117553]
ラベル分布学習(LDL)は、サンプルのラベル記述度(ラベル分布)を予測する効果的な方法である。
しかし、トレーニングサンプルのラベル分布のアノテートは非常にコストがかかる。
論理ラベルから直接LDLモデルを学習する新しい手法を提案し,LEとLDLを結合モデルに統一する。
論文 参考訳(メタデータ) (2023-03-13T04:31:35Z) - Multi-label Classification with High-rank and High-order Label
Correlations [62.39748565407201]
従来の手法では, ラベル行列を低ランク行列係数化した潜在ラベル空間に変換することにより, 高階ラベル相関を捕えることができた。
本稿では,高次ラベル相関を明示的に記述する簡易かつ効果的な手法を提案し,同時にラベル行列の高次値を維持する。
12個のベンチマークデータセットの比較研究により,マルチラベル分類における提案アルゴリズムの有効性が検証された。
論文 参考訳(メタデータ) (2022-07-09T05:15:31Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels [65.5889334964149]
伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
論文 参考訳(メタデータ) (2022-03-30T11:43:59Z) - Generalized Label Enhancement with Sample Correlations [24.582764493585362]
サンプル相関付きラベル拡張(LESC)と、サンプル相関付きラベル拡張(gLESC)の2つの新しいラベル拡張手法を提案する。
サンプル相関から,提案手法はラベル強化性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-07T03:32:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。