論文の概要: Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning
- arxiv url: http://arxiv.org/abs/2305.02795v1
- Date: Thu, 4 May 2023 12:52:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 15:33:13.526842
- Title: Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning
- Title(参考訳): 半教師付きマルチラベル学習のためのクラス分散アウェア擬似ラベリング
- Authors: Ming-Kun Xie, Jia-Hao Xiao, Gang Niu, Masashi Sugiyama, Sheng-Jun
Huang
- Abstract要約: 擬似ラベリングは、ラベルなしデータの情報を活用するための一般的で効果的な方法である。
本稿では,SSMLL問題に対して,CAP(Class-distriion-Aware Pseudo labeling)を実行することで解決する手法を提案する。
提案手法の一般化性能は擬似ラベリング誤差に依存することを示す。
- 参考スコア(独自算出の注目度): 103.79013121042432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pseudo labeling is a popular and effective method to leverage the information
of unlabeled data. Conventional instance-aware pseudo labeling methods often
assign each unlabeled instance with a pseudo label based on its predicted
probabilities. However, due to the unknown number of true labels, these methods
cannot generalize well to semi-supervised multi-label learning (SSMLL)
scenarios, since they would suffer from the risk of either introducing false
positive labels or neglecting true positive ones. In this paper, we propose to
solve the SSMLL problems by performing Class-distribution-Aware Pseudo labeling
(CAP), which encourages the class distribution of pseudo labels to approximate
the true one. Specifically, we design a regularized learning framework
consisting of the class-aware thresholds to control the number of pseudo labels
for each class. Given that the labeled and unlabeled examples are sampled
according to the same distribution, we determine the thresholds by exploiting
the empirical class distribution, which can be treated as a tight approximation
to the true one. Theoretically, we show that the generalization performance of
the proposed method is dependent on the pseudo labeling error, which can be
significantly reduced by the CAP strategy. Extensive experimental results on
multiple benchmark datasets validate that CAP can effectively solve the SSMLL
problems.
- Abstract(参考訳): 擬似ラベリングは、ラベルなしデータの情報を活用するための一般的で効果的な方法である。
従来のインスタンスアウェアの擬似ラベリングメソッドでは、予測された確率に基づいて、ラベルなしのインスタンスに擬似ラベルを割り当てることが多い。
しかし、真のラベルが不明なため、偽陽性ラベルの導入や真陽性ラベルの無視のリスクに悩まされるため、これらの手法は半教師付きマルチラベル学習(SSMLL)のシナリオにうまく適用できない。
本稿では,擬似ラベルのクラス分布を真に近似させるCAP(Class-distriion-Aware Pseudo labeling)を行うことにより,SSMLLの問題を解決することを提案する。
具体的には,クラス認識しきい値からなる正規化学習フレームワークを設計し,クラス毎の擬似ラベル数を制御する。
ラベル付きおよびラベルなしの例が同じ分布に従ってサンプリングされていることを考慮し、実数に対する厳密な近似として扱うことができる経験的クラス分布を利用してしきい値を決定する。
理論的には,提案手法の一般化性能は擬似ラベリング誤差に依存しており,CAP戦略により大幅に低減可能であることを示す。
複数のベンチマークデータセットの大規模な実験結果から、CAPがSSMLL問題を効果的に解決できることが確認された。
関連論文リスト
- AllMatch: Exploiting All Unlabeled Data for Semi-Supervised Learning [5.0823084858349485]
提案するSSLアルゴリズムであるAllMatchは,擬似ラベル精度の向上とラベルなしデータの100%利用率の向上を実現する。
その結果、AllMatchは既存の最先端メソッドよりも一貫して優れています。
論文 参考訳(メタデータ) (2024-06-22T06:59:52Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Multi-class Probabilistic Bounds for Self-learning [13.875239300089861]
Pseudo-labelingはエラーを起こしやすいため、ラベルなしのトレーニングデータにノイズのあるラベルを追加するリスクがある。
本稿では,多クラス分類シナリオにおける自己学習を部分的にラベル付きデータで分析する確率的枠組みを提案する。
論文 参考訳(メタデータ) (2021-09-29T13:57:37Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。