論文の概要: Bidirectional Loss Function for Label Enhancement and Distribution
Learning
- arxiv url: http://arxiv.org/abs/2007.03181v1
- Date: Tue, 7 Jul 2020 03:02:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 18:49:44.450421
- Title: Bidirectional Loss Function for Label Enhancement and Distribution
Learning
- Title(参考訳): ラベル強化と分布学習のための双方向損失関数
- Authors: Xinyuan Liu, Jihua Zhu, Qinghai Zheng, Zhongyu Li, Ruixin Liu and Jun
Wang
- Abstract要約: LDLには、学習過程における次元ギャップ問題への対処方法と、論理ラベルからラベル分布を復元する方法の2つの課題がある。
本研究では,LE問題とLCL問題に同時に適用可能な双方向投影関数について考察する。
LEとLDLの両方に対して提案手法の優位性を示すために,複数の実世界のデータセットの実験を行った。
- 参考スコア(独自算出の注目度): 23.61708127340584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Label distribution learning (LDL) is an interpretable and general learning
paradigm that has been applied in many real-world applications. In contrast to
the simple logical vector in single-label learning (SLL) and multi-label
learning (MLL), LDL assigns labels with a description degree to each instance.
In practice, two challenges exist in LDL, namely, how to address the
dimensional gap problem during the learning process of LDL and how to exactly
recover label distributions from existing logical labels, i.e., Label
Enhancement (LE). For most existing LDL and LE algorithms, the fact that the
dimension of the input matrix is much higher than that of the output one is
alway ignored and it typically leads to the dimensional reduction owing to the
unidirectional projection. The valuable information hidden in the feature space
is lost during the mapping process. To this end, this study considers
bidirectional projections function which can be applied in LE and LDL problems
simultaneously. More specifically, this novel loss function not only considers
the mapping errors generated from the projection of the input space into the
output one but also accounts for the reconstruction errors generated from the
projection of the output space back to the input one. This loss function aims
to potentially reconstruct the input data from the output data. Therefore, it
is expected to obtain more accurate results. Finally, experiments on several
real-world datasets are carried out to demonstrate the superiority of the
proposed method for both LE and LDL.
- Abstract(参考訳): label distribution learning (ldl) は解釈可能で一般的な学習パラダイムであり、多くの現実世界のアプリケーションに適用されている。
シングルラベル学習(SLL)とマルチラベル学習(MLL)の単純な論理ベクトルとは対照的に、LDLは各インスタンスに記述度でラベルを割り当てる。
実際には、LCLの学習過程における次元ギャップ問題への対処方法と、既存の論理ラベルからラベル分布を正確に回収する方法、すなわちラベル拡張(LE)という2つの課題が存在する。
既存のほとんどの ldl と le アルゴリズムでは、入力行列の次元が出力行列の次元よりもはるかに大きいという事実は無視されるが、通常は一方向射影による次元の縮小をもたらす。
機能空間に隠された貴重な情報はマッピングプロセス中に失われます。
そこで本研究では,LE問題とLCL問題に同時に適用可能な双方向投影関数について検討した。
より具体的には、この新規な損失関数は、入力空間の投影から生成されたマッピングエラーを出力空間に考慮するだけでなく、出力空間の投影から生成された再構成エラーを入力空間に戻す。
この損失関数は、出力データから入力データを潜在的に再構成することを目的としている。
そのため,より正確な結果が得られることが期待される。
最後に,LDLとLELの両方に対して提案手法の優位性を示すために,実世界の複数のデータセットの実験を行った。
関連論文リスト
- Automatic Hallucination Assessment for Aligned Large Language Models via
Transferable Adversarial Attacks [98.22864957942821]
本稿では,大規模言語モデルが忠実に振る舞う既存データを適切に修正し,評価データを自動的に生成する手法を開発することを目的とする。
具体的には,LLM ベースのフレームワークである Auto Debug について述べる。
実験結果から, LLMは, インプロンプトに与えられた知識とパラメトリック知識との間に矛盾がある場合, 質問応答シナリオの2つのカテゴリに幻覚を与える可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - Data Augmentation For Label Enhancement [45.3351754830424]
ラベル拡張(LE)が出現し、論理ラベルからラベル分布(LD)を回復する。
本稿では,低次元の特徴空間に原データを投影する新しいLE次元削減手法を提案する。
その結果,提案手法は,他の5つの比較手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-21T09:36:58Z) - Label Distribution Learning from Logical Label [17.502273384263688]
ラベル分布学習(LDL)は、サンプルのラベル記述度(ラベル分布)を予測する効果的な方法である。
しかし、トレーニングサンプルのラベル分布のアノテートは非常にコストがかかる。
論理ラベルから直接LDLモデルを学習する新しい手法を提案し,LEとLDLを結合モデルに統一する。
論文 参考訳(メタデータ) (2023-03-13T04:31:35Z) - Inaccurate Label Distribution Learning [56.89970970094207]
ラベル分布学習(LDL)は、ラベルの集合(ラベル分布(LD)と呼ばれる)のインスタンスへの関連性を予測するためにモデルを訓練する。
本稿では,不正確なLDL,すなわち雑音性LDを用いたLCLモデルの開発について検討する。
論文 参考訳(メタデータ) (2023-02-25T06:23:45Z) - Losses over Labels: Weakly Supervised Learning via Direct Loss
Construction [71.11337906077483]
プログラム可能な弱い監視は、機械学習のパラダイムとして成長している。
ラベルの中間ステップを経由することなく,直接損失を発生させるため,ラベルのロバスト・オーバー・ラベル(Losses over Labels, LoL)を提案する。
いくつかのベンチマークテキストおよび画像分類タスクにおいて、LoLは既存の弱い監督手法を改善していることを示す。
論文 参考訳(メタデータ) (2022-12-13T22:29:14Z) - TabMixer: Excavating Label Distribution Learning with Small-scale
Features [10.498049147922258]
ラベル分布学習(LDL)は、単一ラベル値を記述度に変換することで、インスタンスのポリセミーを表現することを目的としたマルチラベル学習とは異なる。
残念ながら、ラベル分布データセットの特徴空間は、人的要因と特徴抽出器の誘導バイアスが特徴空間の不確実性を引き起こす。
我々は,LDLタスクにおける問題を軽減するため,特徴空間の不確実性向上をモデル化する。
提案アルゴリズムは,他のLDLアルゴリズムと比較して,複数のベンチマークで比較できる。
論文 参考訳(メタデータ) (2022-10-25T09:18:15Z) - Simple and Robust Loss Design for Multi-Label Learning with Missing
Labels [14.7306301893944]
モデルが学習中に欠落したラベルを識別できる観察結果に基づいて,ロバストな損失設計による簡易かつ効果的な2つの手法を提案する。
1つ目は、ヒルの損失(ヒルの損失)であり、これは、偽陰性の影響を軽減するために丘の形状の負を再び重み付けするものである。
第2の手法はSPLC法であり、失ったラベルの近似分布の下で最大度基準から得られた損失を利用する。
論文 参考訳(メタデータ) (2021-12-13T11:39:19Z) - Gradient Imitation Reinforcement Learning for Low Resource Relation
Extraction [52.63803634033647]
低リソース関係抽出(LRE)は,人間のアノテーションが不足している場合に,ラベル付きコーパスから関係事実を抽出することを目的としている。
我々は、擬似ラベルデータにラベル付きデータへの勾配降下方向を模倣するように促すグラディエント・イミテーション強化学習法を開発した。
また,低リソース関係抽出における2つの主要なシナリオを扱うGradLREというフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-14T03:51:15Z) - Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning [59.58381904522967]
本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
論文 参考訳(メタデータ) (2020-09-16T03:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。