論文の概要: Label Distribution Learning via Implicit Distribution Representation
- arxiv url: http://arxiv.org/abs/2209.13824v1
- Date: Wed, 28 Sep 2022 04:13:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 17:30:10.488555
- Title: Label Distribution Learning via Implicit Distribution Representation
- Title(参考訳): 暗黙的分布表現によるラベル分布学習
- Authors: Zhuoran Zheng and Xiuyi Jia
- Abstract要約: 本稿では,ラベル分布学習フレームワークにおける暗黙分布を導入し,ラベル値の不確かさを特徴付ける。
具体的には、深い暗黙的表現学習を用いて、ガウス的事前制約を持つラベル分布行列を構築する。
ラベル分布行列の各行成分は、自己アテンションアルゴリズムを用いて標準ラベル分布形式に変換される。
- 参考スコア(独自算出の注目度): 12.402054374952485
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In contrast to multi-label learning, label distribution learning
characterizes the polysemy of examples by a label distribution to represent
richer semantics. In the learning process of label distribution, the training
data is collected mainly by manual annotation or label enhancement algorithms
to generate label distribution. Unfortunately, the complexity of the manual
annotation task or the inaccuracy of the label enhancement algorithm leads to
noise and uncertainty in the label distribution training set. To alleviate this
problem, we introduce the implicit distribution in the label distribution
learning framework to characterize the uncertainty of each label value.
Specifically, we use deep implicit representation learning to construct a label
distribution matrix with Gaussian prior constraints, where each row component
corresponds to the distribution estimate of each label value, and this row
component is constrained by a prior Gaussian distribution to moderate the noise
and uncertainty interference of the label distribution dataset. Finally, each
row component of the label distribution matrix is transformed into a standard
label distribution form by using the self-attention algorithm. In addition,
some approaches with regularization characteristics are conducted in the
training phase to improve the performance of the model.
- Abstract(参考訳): マルチラベル学習とは対照的に、ラベル分布学習は、より豊かな意味を表現するためにラベル分布によって例のポリセミーを特徴付ける。
ラベル分布の学習過程において、トレーニングデータは、主に手動アノテーションまたはラベル拡張アルゴリズムによって収集され、ラベル分布を生成する。
残念ながら、手動アノテーションタスクの複雑さやラベル拡張アルゴリズムの不正確さは、ラベル配布トレーニングセットのノイズと不確実性をもたらします。
この問題を軽減するため,ラベル分布学習フレームワークにおいて,各ラベル値の不確かさを特徴付ける暗黙分布を導入する。
具体的には,各行成分が各ラベル値の分布推定値に対応し,この行成分が事前のガウス分布によって制約され,ラベル分布データセットのノイズや不確実性の干渉が緩和されるようなラベル分布行列を構築するために,深い暗黙的表現学習を用いる。
最後に、ラベル分布行列の各行成分を自己認識アルゴリズムを用いて標準ラベル分布形式に変換する。
また, モデルの性能向上のため, トレーニング段階において正規化特性を持ついくつかのアプローチを行う。
関連論文リスト
- Towards Better Performance in Incomplete LDL: Addressing Data Imbalance [48.54894491724677]
我々は,不完全なラベルと不均衡なラベル分布を同時に扱うフレームワークであるtextIncomplete and Im Balance Label Distribution Learning (I(2)LDL)を提案する。
本手法は, ラベル分布行列を, 頻繁なラベルのための低ランク成分と希少なラベルのためのスパース成分に分解し, 頭部と尾部のラベルの構造を効果的に把握する。
論文 参考訳(メタデータ) (2024-10-17T14:12:57Z) - Online Multi-Label Classification under Noisy and Changing Label Distribution [9.17381554071824]
本稿では,Nuisy and Changing Label Distribution (NCLD) に基づくオンラインマルチラベル分類アルゴリズムを提案する。
NCLDへの頑健さは3つの新作の恩恵を受けるため,ラベルスコアとラベルランキングを高い精度で同時にモデル化することを目的としている。
論文 参考訳(メタデータ) (2024-10-03T11:16:43Z) - Inaccurate Label Distribution Learning with Dependency Noise [52.08553913094809]
本稿では,依存雑音に基づく不正確なラベル分布学習(DN-ILDL)フレームワークを導入し,ラベル分布学習におけるノイズによる課題に対処する。
本稿では,DN-ILDLがILDL問題に効果的に対処し,既存のLCL法より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T07:58:07Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Label distribution learning via label correlation grid [9.340734188957727]
ラベル関係の不確かさをモデル化するための textbfLabel textbfCorrelation textbfGrid (LCG) を提案する。
我々のネットワークはLCGを学習し、各インスタンスのラベル分布を正確に推定する。
論文 参考訳(メタデータ) (2022-10-15T03:58:15Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z) - Probabilistic Decoupling of Labels in Classification [4.865747672937677]
非標準分類タスクに対する原則的,確率的,統一的なアプローチを開発する。
ラベル分布を予測するために、与えられたラベルの分類器を訓練する。
次に、ラベルクラス遷移のモデルを変動的に最適化することで、基礎となるクラス分布を推定する。
論文 参考訳(メタデータ) (2020-06-16T10:07:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。