論文の概要: Full Kullback-Leibler-Divergence Loss for Hyperparameter-free Label
Distribution Learning
- arxiv url: http://arxiv.org/abs/2209.02055v1
- Date: Mon, 5 Sep 2022 17:01:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 14:38:13.649362
- Title: Full Kullback-Leibler-Divergence Loss for Hyperparameter-free Label
Distribution Learning
- Title(参考訳): ハイパーパラメータフリーなラベル分布学習のためのフルクレルバック・リーブラ・ディバージェンス損失
- Authors: Maurice G\"under, Nico Piatkowski, Christian Bauckhage
- Abstract要約: ラベル分布学習(LDL)の概念は、分類と回帰問題を安定化させる手法である。
主な考え方は、ラベル分布とその期待値の合同回帰である。
Kullback-Leiblerの発散によって完全に定義されるDLDLの損失関数を導入する。
- 参考スコア(独自算出の注目度): 3.0745536448480326
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The concept of Label Distribution Learning (LDL) is a technique to stabilize
classification and regression problems with ambiguous and/or imbalanced labels.
A prototypical use-case of LDL is human age estimation based on profile images.
Regarding this regression problem, a so called Deep Label Distribution Learning
(DLDL) method has been developed. The main idea is the joint regression of the
label distribution and its expectation value. However, the original DLDL method
uses loss components with different mathematical motivation and, thus,
different scales, which is why the use of a hyperparameter becomes necessary.
In this work, we introduce a loss function for DLDL whose components are
completely defined by Kullback-Leibler (KL) divergences and, thus, are directly
comparable to each other without the need of additional hyperparameters. It
generalizes the concept of DLDL with regard to further use-cases, in particular
for multi-dimensional or multi-scale distribution learning tasks.
- Abstract(参考訳): ラベル分布学習(LDL)の概念は、曖昧なラベルや不均衡なラベルによる分類と回帰問題を安定化させる手法である。
LDLの原型的ユースケースは、プロファイル画像に基づく人間の年齢推定である。
この回帰問題に関して、Deep Label Distribution Learning (DLDL) と呼ばれる手法を開発した。
主な考え方は、ラベル分布とその期待値の合同回帰である。
しかし, 従来のDLDL法では, 数学的モチベーションの異なる損失成分を用いており, スケールが異なるため, ハイパーパラメータの使用が必要となる。
本稿では,KL(Kullback-Leibler)の発散によって完全に定義されるDLDLの損失関数を導入する。
dldlの概念を、特に多次元または多スケールの分布学習タスクにおいて、さらなるユースケースに関して一般化する。
関連論文リスト
- Towards Better Performance in Incomplete LDL: Addressing Data Imbalance [48.54894491724677]
我々は,不完全なラベルと不均衡なラベル分布を同時に扱うフレームワークであるtextIncomplete and Im Balance Label Distribution Learning (I(2)LDL)を提案する。
本手法は, ラベル分布行列を, 頻繁なラベルのための低ランク成分と希少なラベルのためのスパース成分に分解し, 頭部と尾部のラベルの構造を効果的に把握する。
論文 参考訳(メタデータ) (2024-10-17T14:12:57Z) - Inaccurate Label Distribution Learning with Dependency Noise [52.08553913094809]
本稿では,依存雑音に基づく不正確なラベル分布学習(DN-ILDL)フレームワークを導入し,ラベル分布学習におけるノイズによる課題に対処する。
本稿では,DN-ILDLがILDL問題に効果的に対処し,既存のLCL法より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T07:58:07Z) - Label Distribution Learning from Logical Label [19.632157794117553]
ラベル分布学習(LDL)は、サンプルのラベル記述度(ラベル分布)を予測する効果的な方法である。
しかし、トレーニングサンプルのラベル分布のアノテートは非常にコストがかかる。
論理ラベルから直接LDLモデルを学習する新しい手法を提案し,LEとLDLを結合モデルに統一する。
論文 参考訳(メタデータ) (2023-03-13T04:31:35Z) - Inaccurate Label Distribution Learning [56.89970970094207]
ラベル分布学習(LDL)は、ラベルの集合(ラベル分布(LD)と呼ばれる)のインスタンスへの関連性を予測するためにモデルを訓練する。
本稿では,不正確なLDL,すなわち雑音性LDを用いたLCLモデルの開発について検討する。
論文 参考訳(メタデータ) (2023-02-25T06:23:45Z) - Unimodal-Concentrated Loss: Fully Adaptive Label Distribution Learning
for Ordinal Regression [32.35098925000738]
既存のALDLアルゴリズムは、順序回帰の本質的な性質を十分に活用していないと論じる。
完全適応型ラベル分布学習(unimodal-concentated loss)のための新しい損失関数を提案する。
論文 参考訳(メタデータ) (2022-04-01T09:40:11Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Bidirectional Loss Function for Label Enhancement and Distribution
Learning [23.61708127340584]
LDLには、学習過程における次元ギャップ問題への対処方法と、論理ラベルからラベル分布を復元する方法の2つの課題がある。
本研究では,LE問題とLCL問題に同時に適用可能な双方向投影関数について考察する。
LEとLDLの両方に対して提案手法の優位性を示すために,複数の実世界のデータセットの実験を行った。
論文 参考訳(メタデータ) (2020-07-07T03:02:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。