論文の概要: Label Information Bottleneck for Label Enhancement
- arxiv url: http://arxiv.org/abs/2303.06836v1
- Date: Mon, 13 Mar 2023 03:46:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 16:30:12.626633
- Title: Label Information Bottleneck for Label Enhancement
- Title(参考訳): ラベルエンハンスメントのためのラベル情報ボトルネック
- Authors: Qinghai Zheng, Jihua Zhu, Haoyu Tang
- Abstract要約: ラベルエンハンスメント(LE)のための新しいラベル情報ボトルネック(LIB)法を提案する。
本手法はLE問題を,1)本質的なラベル関連情報を用いて表現を学習すること,2)学習した表現に基づいてラベル分布を復元すること,の2つの共同プロセスとして定式化する。
複数のベンチマークラベル分布学習データセットで実施した評価実験により,LIBの有効性と競争性を検証した。
- 参考スコア(独自算出の注目度): 12.783783498844016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we focus on the challenging problem of Label Enhancement (LE),
which aims to exactly recover label distributions from logical labels, and
present a novel Label Information Bottleneck (LIB) method for LE. For the
recovery process of label distributions, the label irrelevant information
contained in the dataset may lead to unsatisfactory recovery performance. To
address this limitation, we make efforts to excavate the essential label
relevant information to improve the recovery performance. Our method formulates
the LE problem as the following two joint processes: 1) learning the
representation with the essential label relevant information, 2) recovering
label distributions based on the learned representation. The label relevant
information can be excavated based on the "bottleneck" formed by the learned
representation. Significantly, both the label relevant information about the
label assignments and the label relevant information about the label gaps can
be explored in our method. Evaluation experiments conducted on several
benchmark label distribution learning datasets verify the effectiveness and
competitiveness of LIB. Our source codes are available
"https://github.com/qinghai-zheng/LIBLE"
- Abstract(参考訳): 本研究では,論理ラベルからラベル分布を正確に復元することを目的としたラベル拡張(LE)の課題に焦点をあて,LEのための新しいラベル情報ボトルネック(LIB)手法を提案する。
ラベル分布の回復過程において、データセットに含まれる無関係なラベル情報は、不満足な回復性能をもたらす可能性がある。
この制限に対処するため,我々は,リカバリ性能を向上させるために必要不可欠なラベル関連情報を発掘する努力を行う。
LE問題を以下の2つの共同プロセスとして定式化する。
1) 本質的ラベル関連情報で表現を学習すること。
2)学習した表現に基づいてラベル分布を復元する。
ラベル関連情報は、学習表現によって形成された「ボトルネック」に基づいて発掘することができる。
本手法では,ラベル割り当てに関するラベル関連情報とラベルギャップに関するラベル関連情報の両方を探索することができる。
複数のベンチマークラベル分布学習データセットで実施した評価実験により,LIBの有効性と競争性を検証した。
私たちのソースコードは "https://github.com/qinghai-zheng/LIBLE" で利用可能です。
関連論文リスト
- Incremental Label Distribution Learning with Scalable Graph Convolutional Networks [41.02170058889797]
本稿では,ILDL(Incrmental Label Distribution Learning)を導入し,トレーニングサンプルとラベル間関係に関する重要な課題を分析した。
具体的には、新しいラベルの学習を高速化し、ラベル間の関係をグラフとして表現する、新しいラベル対応のグラディエント補償損失を開発する。
論文 参考訳(メタデータ) (2024-11-20T07:49:51Z) - Leveraging Label Semantics and Meta-Label Refinement for Multi-Label Question Classification [11.19022605804112]
本稿では,新手法RR2QCを多ラベル質問分類に適用する。
ラベルセマンティクスとメタラベルの改良を使用して、パーソナライズされた学習とリソースレコメンデーションを強化する。
実験の結果,RR2QCはPrecision@kとF1スコアの既存の分類方法よりも優れていた。
論文 参考訳(メタデータ) (2024-11-04T06:27:14Z) - Online Multi-Label Classification under Noisy and Changing Label Distribution [9.17381554071824]
本稿では,Nuisy and Changing Label Distribution (NCLD) に基づくオンラインマルチラベル分類アルゴリズムを提案する。
NCLDへの頑健さは3つの新作の恩恵を受けるため,ラベルスコアとラベルランキングを高い精度で同時にモデル化することを目的としている。
論文 参考訳(メタデータ) (2024-10-03T11:16:43Z) - You can't handle the (dirty) truth: Data-centric insights improve pseudo-labeling [60.27812493442062]
擬似ラベル法を改善するためにラベル付きデータ品質を調査することが重要であることを示す。
具体的には、擬似ラベルの拡張のために、DIPSと呼ばれる新しいデータキャラクタリゼーションと選択フレームワークを導入する。
本研究では,多種多様な実世界のデータセットを対象とした擬似ラベル手法に対するDIPSの適用性と影響を実証する。
論文 参考訳(メタデータ) (2024-06-19T17:58:40Z) - Channel-Wise Contrastive Learning for Learning with Noisy Labels [60.46434734808148]
チャネルワイド・コントラッシブ・ラーニング(CWCL)を導入し,真正なラベル情報とノイズを区別する。
従来のインスタンス単位のコントラスト学習(IWCL)とは異なり、CWCLはよりニュアンスでレジリエントな特徴を真のラベルと一致させる傾向にある。
まずCWCLを用いて、クリーンにラベル付けされたサンプルを識別し、次に、これらのサンプルを段階的に微調整する。
論文 参考訳(メタデータ) (2023-08-14T06:04:50Z) - Label Smarter, Not Harder: CleverLabel for Faster Annotation of
Ambiguous Image Classification with Higher Quality [0.6927055673104933]
私たちは1つのオプションとして提案誘導アノテーションを使用し、アノテーション間の一貫性を高めます。
本稿では,検証された提案誘導アノテーションと修復されたLABLを用いて,コスト効率の高いLabElingのためのCleverLabelを提案する。
クレバーラベルはラベリングコストを最大30.0%削減し、クルバック・リーバーの分岐率を最大29.8%に向上させる。
論文 参考訳(メタデータ) (2023-05-22T08:12:25Z) - Imprecise Label Learning: A Unified Framework for Learning with Various Imprecise Label Configurations [91.67511167969934]
imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T04:50:28Z) - Contrastive Label Enhancement [13.628665406039609]
コントラスト学習戦略により高次特徴を生成するコントラストラベル拡張(Contrastive Label Enhancement, ConLE)を提案する。
得られた高レベルな特徴を活用し、よく設計されたトレーニング戦略によりラベル分布を得る。
論文 参考訳(メタデータ) (2023-05-16T14:53:07Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels [65.5889334964149]
伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
論文 参考訳(メタデータ) (2022-03-30T11:43:59Z) - Exploiting Context for Robustness to Label Noise in Active Learning [47.341705184013804]
本稿では,どのラベルが間違っているのかをシステムがどのように識別するか,ラベルノイズの負の影響を最小限に抑えるために,マルチクラスアクティブラーニングシステムをどのように適用できるか,といった課題に対処する。
我々は、これらの関係を符号化し、ノイズラベルが利用できる場合にグラフ上の新しい信念を得るために、ラベルなしデータのグラフィカルな表現を構築した。
これはシーン分類、アクティビティ分類、文書分類の3つの異なる応用で実証されている。
論文 参考訳(メタデータ) (2020-10-18T18:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。