論文の概要: Latent label distribution grid representation for modeling uncertainty
- arxiv url: http://arxiv.org/abs/2505.21180v1
- Date: Tue, 27 May 2025 13:31:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.672913
- Title: Latent label distribution grid representation for modeling uncertainty
- Title(参考訳): モデリング不確実性のための潜在ラベル分布格子表現
- Authors: ShuNing Sun, YinSong Xiong, Yu Zhang, Zhuoran Zheng,
- Abstract要約: textbfLatent textbfDistribution textbfLearning (LDL) には、インスタンスのポリセミーを特徴づける有望な表現機能がある。
我々は低雑音表現空間を形成するためにtextbfLatent textbfDistribution textbfGrid (LLDG) を構築した。
- 参考スコア(独自算出の注目度): 4.597656573673848
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although \textbf{L}abel \textbf{D}istribution \textbf{L}earning (LDL) has promising representation capabilities for characterizing the polysemy of an instance, the complexity and high cost of the label distribution annotation lead to inexact in the construction of the label space. The existence of a large number of inexact labels generates a label space with uncertainty, which misleads the LDL algorithm to yield incorrect decisions. To alleviate this problem, we model the uncertainty of label distributions by constructing a \textbf{L}atent \textbf{L}abel \textbf{D}istribution \textbf{G}rid (LLDG) to form a low-noise representation space. Specifically, we first construct a label correlation matrix based on the differences between labels, and then expand each value of the matrix into a vector that obeys a Gaussian distribution, thus building a LLDG to model the uncertainty of the label space. Finally, the LLDG is reconstructed by the LLDG-Mixer to generate an accurate label distribution. Note that we enforce a customized low-rank scheme on this grid, which assumes that the label relations may be noisy and it needs to perform noise-reduction with the help of a Tucker reconstruction technique. Furthermore, we attempt to evaluate the effectiveness of the LLDG by considering its generation as an upstream task to achieve the classification of the objects. Extensive experimental results show that our approach performs competitively on several benchmarks.
- Abstract(参考訳): \textbf{L}abel \textbf{D}istribution \textbf{L}earning (LDL) は、あるインスタンスのポリセミーを特徴づける有望な表現能力を持っているが、ラベル分布アノテーションの複雑さと高コストは、ラベル空間の構築において不正確な結果をもたらす。
多数の不正確なラベルが存在すると、不確実性のあるラベル空間が生成されるため、LCLアルゴリズムは誤った判断を下す。
この問題を緩和するために、低雑音表現空間を形成するために、ラベル分布の不確かさを {textbf{L}atent \textbf{L}abel \textbf{D}istribution \textbf{G}rid (LLDG) を構成することによってモデル化する。
具体的には、まずラベル間の差異に基づいてラベル相関行列を構築し、その後、行列の各値をガウス分布に従うベクトルに拡張し、ラベル空間の不確かさをモデル化するLDDGを構築する。
そして、LDDG-MixerによりLDDGを再構成し、正確なラベル分布を生成する。
このグリッドにカスタマイズされた低ランクスキームを適用し、これはラベル関係がノイズである可能性があり、タッカー再構成手法の助けを借りてノイズ低減を行う必要があることを前提としている。
さらに,LLDGの生成を上流タスクとして考慮し,オブジェクトの分類を実現することにより,LCDGの有効性を評価する。
大規模な実験結果から,本手法はいくつかのベンチマークで競合的に動作することが示された。
関連論文リスト
- Diffusion Disambiguation Models for Partial Label Learning [7.869159280247732]
あいまいなラベルからの学習は、実践的な機械学習アプリケーションにおける長年の問題である。
本稿では,様々な世代タスクにおける拡散モデルの顕著な性能に着想を得て,あいまいなラベルを識別する可能性を探る。
本稿では、まず、インスタンスとラベル間の潜在的な相補的情報を利用するDDMP(Emphdiffusion Disambiguation Model for DDMP)を提案する。
論文 参考訳(メタデータ) (2025-07-01T03:53:45Z) - Label Distribution Learning with Biased Annotations by Learning Multi-Label Representation [120.97262070068224]
マルチラベル学習(MLL)は,実世界のデータ表現能力に注目されている。
ラベル分布学習(LDL)は正確なラベル分布の収集において課題に直面している。
論文 参考訳(メタデータ) (2025-02-03T09:04:03Z) - Reduction-based Pseudo-label Generation for Instance-dependent Partial Label Learning [41.345794038968776]
本稿では,誤り候補ラベルの影響を軽減するために,リダクションに基づく擬似ラベルを活用することを提案する。
推定モデルから生成した擬似ラベルと比較して,減算に基づく擬似ラベルはベイズ最適分類器との整合性が高いことを示す。
論文 参考訳(メタデータ) (2024-10-28T07:32:20Z) - Towards Better Performance in Incomplete LDL: Addressing Data Imbalance [48.54894491724677]
我々は,不完全なラベルと不均衡なラベル分布を同時に扱うフレームワークであるtextIncomplete and Im Balance Label Distribution Learning (I(2)LDL)を提案する。
本手法は, ラベル分布行列を, 頻繁なラベルのための低ランク成分と希少なラベルのためのスパース成分に分解し, 頭部と尾部のラベルの構造を効果的に把握する。
論文 参考訳(メタデータ) (2024-10-17T14:12:57Z) - Inaccurate Label Distribution Learning with Dependency Noise [52.08553913094809]
本稿では,依存雑音に基づく不正確なラベル分布学習(DN-ILDL)フレームワークを導入し,ラベル分布学習におけるノイズによる課題に対処する。
本稿では,DN-ILDLがILDL問題に効果的に対処し,既存のLCL法より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T07:58:07Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Neighbour Consistency Guided Pseudo-Label Refinement for Unsupervised
Person Re-Identification [80.98291772215154]
教師なしの人物再識別(ReID)は、アノテーションを使わずに人物検索のための識別的アイデンティティの特徴を学習することを目的としている。
近年の進歩はクラスタリングに基づく擬似ラベルを活用することで実現されている。
本稿では, Pseudo Label Refinement フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-30T09:39:57Z) - Label distribution learning via label correlation grid [9.340734188957727]
ラベル関係の不確かさをモデル化するための textbfLabel textbfCorrelation textbfGrid (LCG) を提案する。
我々のネットワークはLCGを学習し、各インスタンスのラベル分布を正確に推定する。
論文 参考訳(メタデータ) (2022-10-15T03:58:15Z) - Leveraging Instance Features for Label Aggregation in Programmatic Weak
Supervision [75.1860418333995]
Programmatic Weak Supervision (PWS) は、トレーニングラベルを効率的に合成するための広く普及したパラダイムとして登場した。
PWSのコアコンポーネントはラベルモデルであり、複数のノイズ管理ソースの出力をラベル関数として集約することで、真のラベルを推論する。
既存の統計ラベルモデルは一般的にLFの出力のみに依存し、基礎となる生成過程をモデル化する際のインスタンスの特徴を無視している。
論文 参考訳(メタデータ) (2022-10-06T07:28:53Z) - Label Distribution Learning via Implicit Distribution Representation [12.402054374952485]
本稿では,ラベル分布学習フレームワークにおける暗黙分布を導入し,ラベル値の不確かさを特徴付ける。
具体的には、深い暗黙的表現学習を用いて、ガウス的事前制約を持つラベル分布行列を構築する。
ラベル分布行列の各行成分は、自己アテンションアルゴリズムを用いて標準ラベル分布形式に変換される。
論文 参考訳(メタデータ) (2022-09-28T04:13:53Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。