論文の概要: Bidirectional Loss Function for Label Enhancement and Distribution
Learning
- arxiv url: http://arxiv.org/abs/2007.03181v1
- Date: Tue, 7 Jul 2020 03:02:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 18:49:44.450421
- Title: Bidirectional Loss Function for Label Enhancement and Distribution
Learning
- Title(参考訳): ラベル強化と分布学習のための双方向損失関数
- Authors: Xinyuan Liu, Jihua Zhu, Qinghai Zheng, Zhongyu Li, Ruixin Liu and Jun
Wang
- Abstract要約: LDLには、学習過程における次元ギャップ問題への対処方法と、論理ラベルからラベル分布を復元する方法の2つの課題がある。
本研究では,LE問題とLCL問題に同時に適用可能な双方向投影関数について考察する。
LEとLDLの両方に対して提案手法の優位性を示すために,複数の実世界のデータセットの実験を行った。
- 参考スコア(独自算出の注目度): 23.61708127340584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Label distribution learning (LDL) is an interpretable and general learning
paradigm that has been applied in many real-world applications. In contrast to
the simple logical vector in single-label learning (SLL) and multi-label
learning (MLL), LDL assigns labels with a description degree to each instance.
In practice, two challenges exist in LDL, namely, how to address the
dimensional gap problem during the learning process of LDL and how to exactly
recover label distributions from existing logical labels, i.e., Label
Enhancement (LE). For most existing LDL and LE algorithms, the fact that the
dimension of the input matrix is much higher than that of the output one is
alway ignored and it typically leads to the dimensional reduction owing to the
unidirectional projection. The valuable information hidden in the feature space
is lost during the mapping process. To this end, this study considers
bidirectional projections function which can be applied in LE and LDL problems
simultaneously. More specifically, this novel loss function not only considers
the mapping errors generated from the projection of the input space into the
output one but also accounts for the reconstruction errors generated from the
projection of the output space back to the input one. This loss function aims
to potentially reconstruct the input data from the output data. Therefore, it
is expected to obtain more accurate results. Finally, experiments on several
real-world datasets are carried out to demonstrate the superiority of the
proposed method for both LE and LDL.
- Abstract(参考訳): label distribution learning (ldl) は解釈可能で一般的な学習パラダイムであり、多くの現実世界のアプリケーションに適用されている。
シングルラベル学習(SLL)とマルチラベル学習(MLL)の単純な論理ベクトルとは対照的に、LDLは各インスタンスに記述度でラベルを割り当てる。
実際には、LCLの学習過程における次元ギャップ問題への対処方法と、既存の論理ラベルからラベル分布を正確に回収する方法、すなわちラベル拡張(LE)という2つの課題が存在する。
既存のほとんどの ldl と le アルゴリズムでは、入力行列の次元が出力行列の次元よりもはるかに大きいという事実は無視されるが、通常は一方向射影による次元の縮小をもたらす。
機能空間に隠された貴重な情報はマッピングプロセス中に失われます。
そこで本研究では,LE問題とLCL問題に同時に適用可能な双方向投影関数について検討した。
より具体的には、この新規な損失関数は、入力空間の投影から生成されたマッピングエラーを出力空間に考慮するだけでなく、出力空間の投影から生成された再構成エラーを入力空間に戻す。
この損失関数は、出力データから入力データを潜在的に再構成することを目的としている。
そのため,より正確な結果が得られることが期待される。
最後に,LDLとLELの両方に対して提案手法の優位性を示すために,実世界の複数のデータセットの実験を行った。
関連論文リスト
- Learning with Less: Knowledge Distillation from Large Language Models via Unlabeled Data [54.934578742209716]
現実世界のNLPアプリケーションでは、Large Language Models (LLMs) は巨大なデータセットの広範なトレーニングのために、有望なソリューションを提供する。
LLKDは、教師と学生の両方の信号を組み込んだ適応的なサンプル選択法である。
総合的な実験により,LLKDは高いデータ効率で,様々なデータセットで優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-11-12T18:57:59Z) - Towards Better Performance in Incomplete LDL: Addressing Data Imbalance [48.54894491724677]
我々は,不完全なラベルと不均衡なラベル分布を同時に扱うフレームワークであるtextIncomplete and Im Balance Label Distribution Learning (I(2)LDL)を提案する。
本手法は, ラベル分布行列を, 頻繁なラベルのための低ランク成分と希少なラベルのためのスパース成分に分解し, 頭部と尾部のラベルの構造を効果的に把握する。
論文 参考訳(メタデータ) (2024-10-17T14:12:57Z) - Tabular Transfer Learning via Prompting LLMs [52.96022335067357]
大規模言語モデル(LLM)を用いたラベル付き(あるいは異種)ソースデータを利用した新しいフレームワークPrompt to Transfer (P2T)を提案する。
P2Tは、ターゲットタスク機能と強く相関しているソースデータセットの列の特徴を特定し、ターゲットタスクに関連する例を作成し、プロンプトの擬似宣言を生成する。
論文 参考訳(メタデータ) (2024-08-09T11:30:52Z) - Inaccurate Label Distribution Learning with Dependency Noise [52.08553913094809]
本稿では,依存雑音に基づく不正確なラベル分布学習(DN-ILDL)フレームワークを導入し,ラベル分布学習におけるノイズによる課題に対処する。
本稿では,DN-ILDLがILDL問題に効果的に対処し,既存のLCL法より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T07:58:07Z) - Data Augmentation For Label Enhancement [45.3351754830424]
ラベル拡張(LE)が出現し、論理ラベルからラベル分布(LD)を回復する。
本稿では,低次元の特徴空間に原データを投影する新しいLE次元削減手法を提案する。
その結果,提案手法は,他の5つの比較手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-21T09:36:58Z) - Label Distribution Learning from Logical Label [19.632157794117553]
ラベル分布学習(LDL)は、サンプルのラベル記述度(ラベル分布)を予測する効果的な方法である。
しかし、トレーニングサンプルのラベル分布のアノテートは非常にコストがかかる。
論理ラベルから直接LDLモデルを学習する新しい手法を提案し,LEとLDLを結合モデルに統一する。
論文 参考訳(メタデータ) (2023-03-13T04:31:35Z) - Inaccurate Label Distribution Learning [56.89970970094207]
ラベル分布学習(LDL)は、ラベルの集合(ラベル分布(LD)と呼ばれる)のインスタンスへの関連性を予測するためにモデルを訓練する。
本稿では,不正確なLDL,すなわち雑音性LDを用いたLCLモデルの開発について検討する。
論文 参考訳(メタデータ) (2023-02-25T06:23:45Z) - TabMixer: Excavating Label Distribution Learning with Small-scale
Features [10.498049147922258]
ラベル分布学習(LDL)は、単一ラベル値を記述度に変換することで、インスタンスのポリセミーを表現することを目的としたマルチラベル学習とは異なる。
残念ながら、ラベル分布データセットの特徴空間は、人的要因と特徴抽出器の誘導バイアスが特徴空間の不確実性を引き起こす。
我々は,LDLタスクにおける問題を軽減するため,特徴空間の不確実性向上をモデル化する。
提案アルゴリズムは,他のLDLアルゴリズムと比較して,複数のベンチマークで比較できる。
論文 参考訳(メタデータ) (2022-10-25T09:18:15Z) - Simple and Robust Loss Design for Multi-Label Learning with Missing
Labels [14.7306301893944]
モデルが学習中に欠落したラベルを識別できる観察結果に基づいて,ロバストな損失設計による簡易かつ効果的な2つの手法を提案する。
1つ目は、ヒルの損失(ヒルの損失)であり、これは、偽陰性の影響を軽減するために丘の形状の負を再び重み付けするものである。
第2の手法はSPLC法であり、失ったラベルの近似分布の下で最大度基準から得られた損失を利用する。
論文 参考訳(メタデータ) (2021-12-13T11:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。