論文の概要: Inaccurate Label Distribution Learning
- arxiv url: http://arxiv.org/abs/2302.13000v1
- Date: Sat, 25 Feb 2023 06:23:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 19:35:34.486113
- Title: Inaccurate Label Distribution Learning
- Title(参考訳): 不正確なラベル分布学習
- Authors: Zhiqiang Kou, Yuheng Jia, Xin Geng
- Abstract要約: ラベル分布学習(LDL)は、ラベルの集合(ラベル分布(LD)と呼ばれる)のインスタンスとの関連性を予測するためにモデルを訓練する。
以前のLCL手法はすべて、トレーニングインスタンスのLDが正確であると仮定していた。
本稿では,不正確なLDL,すなわち雑音性LDを用いたLCLモデルの開発について検討する。
- 参考スコア(独自算出の注目度): 52.664890945153715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Label distribution learning (LDL) trains a model to predict the relevance of
a set of labels (called label distribution (LD)) to an instance. The previous
LDL methods all assumed the LDs of the training instances are accurate.
However, annotating highly accurate LDs for training instances is
time-consuming and very expensive, and in reality the collected LD is usually
inaccurate and disturbed by annotating errors. For the first time, this paper
investigates the problem of inaccurate LDL, i.e., developing an LDL model with
noisy LDs. Specifically, we assume the noisy LD matrix is the linear
combination of an ideal LD matrix and a sparse noisy matrix. Accordingly,
inaccurate LDL becomes an inverse problem, i.e., recovering the ideal LD and
noise matrix from the inaccurate LDs. To this end, we assume the ideal LD
matrix is low-rank due to the correlation of labels. Besides, we use the local
geometric structure of instances captured by a graph to assist the ideal LD
recovery as if two instances are similar to each other, they are likely to
share the same LD. The proposed model is finally formulated as a
graph-regularized low-rank and sparse decomposition problem and numerically
solved by the alternating direction method of multipliers. Extensive
experiments demonstrate that our method can recover a relatively accurate LD
from the inaccurate LD and promote the performance of different LDL methods
with inaccurate LD.
- Abstract(参考訳): ラベル分布学習(LDL)は、ラベルの集合(ラベル分布(LD)と呼ばれる)のインスタンスとの関係を予測するためにモデルを訓練する。
以前のLCL法は、トレーニングインスタンスのLDが正確であると仮定していた。
しかし、トレーニングインスタンスに高度に正確なLDをアノテートするのは時間がかかり、非常にコストがかかるため、実際には、収集されたLDは通常不正確で、アノテートエラーによって乱される。
本稿では,まず,不正確なLDL,すなわちうるさいLDを用いたLCLモデルの開発について検討する。
具体的には、ノイズLD行列は理想的なLD行列とスパースノイズ行列の線形結合であると仮定する。
したがって、不正確なLDLは、不正確なLDから理想的なLDとノイズマトリックスを回復する逆問題となる。
この目的のために、ラベルの相関により理想的なLD行列が低ランクであると仮定する。
さらに,グラフが取得したインスタンスの局所的幾何学的構造を用いて,理想的なLD回復を支援する。
提案手法はグラフ正規化低ランク・スパース分解問題として定式化され,乗算器の交互方向法により数値解される。
本手法は,不正確なLDから比較的正確なLDを回収し,不正確なLDを用いた異なるLDL法の性能向上を図っている。
関連論文リスト
- Towards Better Performance in Incomplete LDL: Addressing Data Imbalance [48.54894491724677]
我々は,不完全なラベルと不均衡なラベル分布を同時に扱うフレームワークであるtextIncomplete and Im Balance Label Distribution Learning (I(2)LDL)を提案する。
本手法は, ラベル分布行列を, 頻繁なラベルのための低ランク成分と希少なラベルのためのスパース成分に分解し, 頭部と尾部のラベルの構造を効果的に把握する。
論文 参考訳(メタデータ) (2024-10-17T14:12:57Z) - Inaccurate Label Distribution Learning with Dependency Noise [52.08553913094809]
本稿では,依存雑音に基づく不正確なラベル分布学習(DN-ILDL)フレームワークを導入し,ラベル分布学習におけるノイズによる課題に対処する。
本稿では,DN-ILDLがILDL問題に効果的に対処し,既存のLCL法より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T07:58:07Z) - Data Augmentation For Label Enhancement [45.3351754830424]
ラベル拡張(LE)が出現し、論理ラベルからラベル分布(LD)を回復する。
本稿では,低次元の特徴空間に原データを投影する新しいLE次元削減手法を提案する。
その結果,提案手法は,他の5つの比較手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-21T09:36:58Z) - Label Distribution Learning from Logical Label [19.632157794117553]
ラベル分布学習(LDL)は、サンプルのラベル記述度(ラベル分布)を予測する効果的な方法である。
しかし、トレーニングサンプルのラベル分布のアノテートは非常にコストがかかる。
論理ラベルから直接LDLモデルを学習する新しい手法を提案し,LEとLDLを結合モデルに統一する。
論文 参考訳(メタデータ) (2023-03-13T04:31:35Z) - Full Kullback-Leibler-Divergence Loss for Hyperparameter-free Label
Distribution Learning [3.0745536448480326]
ラベル分布学習(LDL)の概念は、分類と回帰問題を安定化させる手法である。
主な考え方は、ラベル分布とその期待値の合同回帰である。
Kullback-Leiblerの発散によって完全に定義されるDLDLの損失関数を導入する。
論文 参考訳(メタデータ) (2022-09-05T17:01:46Z) - Solving Multistage Stochastic Linear Programming via Regularized Linear
Decision Rules: An Application to Hydrothermal Dispatch Planning [77.34726150561087]
AdaSO(Adaptive least absolute shrinkage and selection operator)に基づく線形決定規則(LDR)の新しい正規化手法を提案する。
実験により、MSLPを解くために古典的な非正規化LDRを使用する場合、過度に適合する脅威は無視できないことが示された。
LHDP問題に対しては、非正規化ベンチマークと比較して、提案したフレームワークの次の利点を強調した。
論文 参考訳(メタデータ) (2021-10-07T02:36:14Z) - Bidirectional Loss Function for Label Enhancement and Distribution
Learning [23.61708127340584]
LDLには、学習過程における次元ギャップ問題への対処方法と、論理ラベルからラベル分布を復元する方法の2つの課題がある。
本研究では,LE問題とLCL問題に同時に適用可能な双方向投影関数について考察する。
LEとLDLの両方に対して提案手法の優位性を示すために,複数の実世界のデータセットの実験を行った。
論文 参考訳(メタデータ) (2020-07-07T03:02:54Z) - Localized Debiased Machine Learning: Efficient Inference on Quantile
Treatment Effects and Beyond [69.83813153444115]
因果推論における(局所)量子化処理効果((L)QTE)の効率的な推定式を検討する。
Debiased Machine Learning (DML)は、高次元のニュアンスを推定するデータ分割手法である。
本稿では、この負担のかかるステップを避けるために、局所的脱バイアス機械学習(LDML)を提案する。
論文 参考訳(メタデータ) (2019-12-30T14:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。