論文の概要: Rethinking Guidance Information to Utilize Unlabeled Samples:A Label Encoding Perspective
- arxiv url: http://arxiv.org/abs/2406.02862v1
- Date: Wed, 5 Jun 2024 02:22:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 22:26:58.661617
- Title: Rethinking Guidance Information to Utilize Unlabeled Samples:A Label Encoding Perspective
- Title(参考訳): ラベルなしサンプルを活用したガイダンス情報の再考:ラベルエンコーディングの視点から
- Authors: Yulong Zhang, Yuan Yao, Shuhao Chen, Pengrong Jin, Yu Zhang, Jian Jin, Jiangang Lu,
- Abstract要約: 経験的リスク最小化(ERM)は、ラベル付きサンプルが不十分なシナリオでは脆弱である。
本稿では,ラベルリスク最小化(LERM)を提案する。
- 参考スコア(独自算出の注目度): 10.185520682726096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Empirical Risk Minimization (ERM) is fragile in scenarios with insufficient labeled samples. A vanilla extension of ERM to unlabeled samples is Entropy Minimization (EntMin), which employs the soft-labels of unlabeled samples to guide their learning. However, EntMin emphasizes prediction discriminability while neglecting prediction diversity. To alleviate this issue, in this paper, we rethink the guidance information to utilize unlabeled samples. By analyzing the learning objective of ERM, we find that the guidance information for labeled samples in a specific category is the corresponding label encoding. Inspired by this finding, we propose a Label-Encoding Risk Minimization (LERM). It first estimates the label encodings through prediction means of unlabeled samples and then aligns them with their corresponding ground-truth label encodings. As a result, the LERM ensures both prediction discriminability and diversity, and it can be integrated into existing methods as a plugin. Theoretically, we analyze the relationships between LERM and ERM as well as EntMin. Empirically, we verify the superiority of the LERM under several label insufficient scenarios. The codes are available at https://github.com/zhangyl660/LERM.
- Abstract(参考訳): 経験的リスク最小化(ERM)は、ラベル付きサンプルが不十分なシナリオでは脆弱である。
ERMから未ラベルのサンプルへのバニラ拡張としてエントロピー最小化(EntMin)があり、未ラベルのサンプルのソフトラベルを使って学習をガイドしている。
しかしEntMinは、予測の多様性を無視しながら、予測の差別性を強調している。
この問題を軽減するため,本稿では,未ラベルサンプルを利用するためのガイダンス情報を再考する。
ERMの学習目標を解析することにより、特定のカテゴリにおけるラベル付きサンプルのガイダンス情報が対応するラベルエンコーディングであることが分かる。
この発見に触発されて,ラベルエンコードリスク最小化(LERM)を提案する。
まず、ラベル付きサンプルの予測手段を通じてラベルエンコーディングを推定し、対応する接地トラスラベルエンコーディングと整合させる。
その結果、LERMは予測の差別性と多様性の両方を保証し、プラグインとして既存のメソッドに統合することができる。
理論的には、LERMとERMとEntMinの関係を解析する。
実験により,複数のラベルが不十分なシナリオにおいて,LERMの優位性を検証した。
コードはhttps://github.com/zhangyl660/LERMで公開されている。
関連論文リスト
- Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - ScarceNet: Animal Pose Estimation with Scarce Annotations [74.48263583706712]
ScarceNetは、ラベルのない画像のための人工ラベルを生成するための擬似ラベルベースのアプローチである。
我々は、既存の半教師付きアプローチを大きなマージンで上回る、挑戦的なAP-10Kデータセットに対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-03-27T09:15:53Z) - Learning from Noisy Labels with Decoupled Meta Label Purifier [33.87292143223425]
ディープニューラルネットワークをノイズラベルでトレーニングすることは、DNNが不正確なラベルを容易に記憶できるため、難しい。
本稿では,DMLPと呼ばれる新しい多段ラベル浄化器を提案する。
DMLPはラベル訂正プロセスをラベルなし表現学習と単純なメタラベル精製器に分離する。
論文 参考訳(メタデータ) (2023-02-14T03:39:30Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels [65.5889334964149]
伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
論文 参考訳(メタデータ) (2022-03-30T11:43:59Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Modeling Diagnostic Label Correlation for Automatic ICD Coding [37.79764232289666]
ラベル相関をキャプチャして自動ICD符号化を改善するための2段階フレームワークを提案する。
具体的には,ラベル集合分布推定器を訓練し,各ラベル集合候補の確率を再評価する。
実験では,提案フレームワークはMIMICベンチマークデータセット上で最高の性能の予測器を改善することができる。
論文 参考訳(メタデータ) (2021-06-24T07:26:30Z) - Recovering Accurate Labeling Information from Partially Valid Data for
Effective Multi-Label Learning [23.665227794132566]
Partial Multi-label Learning (PML) は、ノイズの多い教師付きデータセットからマルチラベル予測器を誘導することを目的としている。
本研究では,2段階PML法,すなわちエンファンダーラインのアンダーラインMulti-underlineLabelアンダーラインLabelを開発した。
実験の結果、赤ちゃんは最先端のPML法よりも優れていた。
論文 参考訳(メタデータ) (2020-06-20T04:13:24Z) - Generalized Label Enhancement with Sample Correlations [24.582764493585362]
サンプル相関付きラベル拡張(LESC)と、サンプル相関付きラベル拡張(gLESC)の2つの新しいラベル拡張手法を提案する。
サンプル相関から,提案手法はラベル強化性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-07T03:32:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。