論文の概要: Contrastive Label Enhancement
- arxiv url: http://arxiv.org/abs/2305.09500v1
- Date: Tue, 16 May 2023 14:53:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 14:39:09.021101
- Title: Contrastive Label Enhancement
- Title(参考訳): 対比ラベル強調
- Authors: Yifei Wang, Yiyang Zhou, Jihua Zhu, Xinyuan Liu, Wenbiao Yan and
Zhiqiang Tian
- Abstract要約: コントラスト学習戦略により高次特徴を生成するコントラストラベル拡張(Contrastive Label Enhancement, ConLE)を提案する。
得られた高レベルな特徴を活用し、よく設計されたトレーニング戦略によりラベル分布を得る。
- 参考スコア(独自算出の注目度): 13.628665406039609
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Label distribution learning (LDL) is a new machine learning paradigm for
solving label ambiguity. Since it is difficult to directly obtain label
distributions, many studies are focusing on how to recover label distributions
from logical labels, dubbed label enhancement (LE). Existing LE methods
estimate label distributions by simply building a mapping relationship between
features and label distributions under the supervision of logical labels. They
typically overlook the fact that both features and logical labels are
descriptions of the instance from different views. Therefore, we propose a
novel method called Contrastive Label Enhancement (ConLE) which integrates
features and logical labels into the unified projection space to generate
high-level features by contrastive learning strategy. In this approach,
features and logical labels belonging to the same sample are pulled closer,
while those of different samples are projected farther away from each other in
the projection space. Subsequently, we leverage the obtained high-level
features to gain label distributions through a welldesigned training strategy
that considers the consistency of label attributes. Extensive experiments on
LDL benchmark datasets demonstrate the effectiveness and superiority of our
method.
- Abstract(参考訳): ラベル分散学習(LDL)はラベル曖昧性を解決するための新しい機械学習パラダイムである。
ラベル分布を直接取得することは困難であるため、多くの研究はラベル拡張(le)と呼ばれる論理ラベルからラベル分布を回復する方法に焦点を当てている。
既存のle法は、単に論理ラベルの監督下で特徴とラベル分布のマッピング関係を構築することによってラベル分布を推定する。
彼らは通常、機能と論理ラベルが異なるビューからのインスタンスの記述であるという事実を見落としている。
そこで本研究では,特徴と論理ラベルを統一投影空間に統合し,コントラスト学習戦略により高レベル特徴を生成するコントラストラベル強調法(conle)を提案する。
このアプローチでは、同じサンプルに属する特徴と論理ラベルが近づき、異なるサンプルのラベルはプロジェクション空間において互いに遠くに投影される。
その後,ラベル属性の一貫性を考慮したよく設計されたトレーニング戦略により,得られた高レベル特徴を活用してラベル分布を得る。
LDLベンチマークデータセットの大規模な実験により,本手法の有効性と優位性を示した。
関連論文リスト
- Label Distribution Learning with Biased Annotations by Learning Multi-Label Representation [120.97262070068224]
マルチラベル学習(MLL)は,実世界のデータ表現能力に注目されている。
ラベル分布学習(LDL)は正確なラベル分布の収集において課題に直面している。
論文 参考訳(メタデータ) (2025-02-03T09:04:03Z) - Improving Multi-Label Contrastive Learning by Leveraging Label Distribution [13.276821681189166]
マルチラベル学習において、より良い表現を学ぶためにコントラスト学習を活用することは、正と負のサンプルを選択するという重要な課題に直面している。
従来の研究ではラベル間の重なり合いに基づいて正と負のサンプルを選択し、ラベル単位の損失分散に使用していた。
ラベル分布によるマルチラベルコントラスト学習を改善する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-31T14:00:02Z) - Mixed Blessing: Class-Wise Embedding guided Instance-Dependent Partial Label Learning [53.64180787439527]
部分ラベル学習(PLL)では、各サンプルは、基底トラスラベルと複数のノイズラベルからなる候補ラベルセットに関連付けられている。
初めて、各サンプルに対してクラスワイドな埋め込みを作成し、インスタンス依存のノイズラベルの関係を調査できるようにします。
ラベルの曖昧さを低減するため,グローバルな特徴情報を含むクラスプロトタイプのコンセプトを紹介した。
論文 参考訳(メタデータ) (2024-12-06T13:25:39Z) - Incremental Label Distribution Learning with Scalable Graph Convolutional Networks [41.02170058889797]
本稿では,ILDL(Incrmental Label Distribution Learning)を導入し,トレーニングサンプルとラベル間関係に関する重要な課題を分析した。
具体的には、新しいラベルの学習を高速化し、ラベル間の関係をグラフとして表現する、新しいラベル対応のグラディエント補償損失を開発する。
論文 参考訳(メタデータ) (2024-11-20T07:49:51Z) - Towards Better Performance in Incomplete LDL: Addressing Data Imbalance [48.54894491724677]
我々は,不完全なラベルと不均衡なラベル分布を同時に扱うフレームワークであるtextIncomplete and Im Balance Label Distribution Learning (I(2)LDL)を提案する。
本手法は, ラベル分布行列を, 頻繁なラベルのための低ランク成分と希少なラベルのためのスパース成分に分解し, 頭部と尾部のラベルの構造を効果的に把握する。
論文 参考訳(メタデータ) (2024-10-17T14:12:57Z) - Inaccurate Label Distribution Learning with Dependency Noise [52.08553913094809]
本稿では,依存雑音に基づく不正確なラベル分布学習(DN-ILDL)フレームワークを導入し,ラベル分布学習におけるノイズによる課題に対処する。
本稿では,DN-ILDLがILDL問題に効果的に対処し,既存のLCL法より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T07:58:07Z) - Scalable Label Distribution Learning for Multi-Label Classification [43.52928088881866]
マルチラベル分類(MLC、Multi-label classification)とは、あるインスタンスに関連ラベルのセットをタグ付けする問題を指す。
既存のMLC法の多くは、ラベルペア内の2つのラベルの相関が対称であるという仮定に基づいている。
既存のほとんどの手法はラベル数に関連する学習プロセスを設計しており、大規模な出力空間にスケールアップする際の計算複雑性をボトルネックにしている。
論文 参考訳(メタデータ) (2023-11-28T06:52:53Z) - Label Distribution Learning from Logical Label [19.632157794117553]
ラベル分布学習(LDL)は、サンプルのラベル記述度(ラベル分布)を予測する効果的な方法である。
しかし、トレーニングサンプルのラベル分布のアノテートは非常にコストがかかる。
論理ラベルから直接LDLモデルを学習する新しい手法を提案し,LEとLDLを結合モデルに統一する。
論文 参考訳(メタデータ) (2023-03-13T04:31:35Z) - Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels [65.5889334964149]
伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
論文 参考訳(メタデータ) (2022-03-30T11:43:59Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Generalized Label Enhancement with Sample Correlations [24.582764493585362]
サンプル相関付きラベル拡張(LESC)と、サンプル相関付きラベル拡張(gLESC)の2つの新しいラベル拡張手法を提案する。
サンプル相関から,提案手法はラベル強化性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-07T03:32:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。