論文の概要: Semi-Supervised Learning with Pseudo-Negative Labels for Image
Classification
- arxiv url: http://arxiv.org/abs/2301.03976v1
- Date: Tue, 10 Jan 2023 14:15:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 16:54:32.668791
- Title: Semi-Supervised Learning with Pseudo-Negative Labels for Image
Classification
- Title(参考訳): 擬似負ラベルを用いた半教師付き学習による画像分類
- Authors: Hao Xu, Hui Xiao, Huazheng Hao, Li Dong, Xiaojie Qiu and Chengbin Peng
- Abstract要約: 擬陰性ラベルに基づく相互学習フレームワークを提案する。
擬似負ラベルの予測確率を下げることにより、二重モデルは予測能力を向上させることができる。
我々のフレームワークは、いくつかの主要なベンチマークで最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 14.100569951592417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised learning frameworks usually adopt mutual learning approaches
with multiple submodels to learn from different perspectives. To avoid
transferring erroneous pseudo labels between these submodels, a high threshold
is usually used to filter out a large number of low-confidence predictions for
unlabeled data. However, such filtering can not fully exploit unlabeled data
with low prediction confidence. To overcome this problem, in this work, we
propose a mutual learning framework based on pseudo-negative labels. Negative
labels are those that a corresponding data item does not belong. In each
iteration, one submodel generates pseudo-negative labels for each data item,
and the other submodel learns from these labels. The role of the two submodels
exchanges after each iteration until convergence. By reducing the prediction
probability on pseudo-negative labels, the dual model can improve its
prediction ability. We also propose a mechanism to select a few pseudo-negative
labels to feed into submodels. In the experiments, our framework achieves
state-of-the-art results on several main benchmarks. Specifically, with our
framework, the error rates of the 13-layer CNN model are 9.35% and 7.94% for
CIFAR-10 with 1000 and 4000 labels, respectively. In addition, for the
non-augmented MNIST with only 20 labels, the error rate is 0.81% by our
framework, which is much smaller than that of other approaches. Our approach
also demonstrates a significant performance improvement in domain adaptation.
- Abstract(参考訳): 半教師付き学習フレームワークは通常、異なる視点から学ぶために複数のサブモデルを持つ相互学習アプローチを採用する。
これらのサブモデル間の誤った擬似ラベルの転送を避けるために、ラベルなしデータに対する多くの低信頼予測をフィルタするために高閾値が使用される。
しかし、そのようなフィルタリングは、予測信頼性の低いラベル付きデータを十分に活用することはできない。
そこで本研究では,疑似負のラベルに基づく相互学習フレームワークを提案する。
負のラベルは、対応するデータ項目が属さないラベルである。
各イテレーションで、1つのサブモデルがデータ項目ごとに擬似負のラベルを生成し、もう1つのサブモデルがこれらのラベルから学習する。
2つのサブモデルの役割は、収束するまで各イテレーション後に交換される。
擬似負ラベルの予測確率を減少させることで、双対モデルは予測能力を向上させることができる。
また,サブモデルにフィードする擬似負のラベルを選択する機構を提案する。
実験では,本フレームワークはいくつかの主要なベンチマークで最先端の結果を得る。
特に,13層cnnモデルの誤差率は,1000ラベルと4000ラベルのcifar-10では9.35%,7.94%であった。
さらに,20のラベルしか持たない拡張されていないMNISTでは,我々のフレームワークによるエラー率は0.81%であり,他のアプローチよりもはるかに小さい。
このアプローチはまた、ドメイン適応の大幅なパフォーマンス向上を示す。
関連論文リスト
- Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Improving Zero-Shot Models with Label Distribution Priors [33.51714665243138]
本稿では,ゼロショットモデルを適用した新しいアプローチであるCLIPPRを提案する。
UTK年齢回帰作業における平均絶対誤差は平均28%改善した。
また、分類ベンチマークの有望な結果を示し、ラベルを使わずにImageNetデータセットの分類精度を2.83%改善した。
論文 参考訳(メタデータ) (2022-12-01T18:59:03Z) - Conformal Predictor for Improving Zero-shot Text Classification
Efficiency [37.745518881553416]
NLIモデルとNSPモデルの平均推論時間をそれぞれ25.6%、22.2%削減する。
各データセットに適したCPを用いて、NLIベースのモデルとNSPベースのモデルの平均推論時間をそれぞれ25.6%、22.2%削減する。
論文 参考訳(メタデータ) (2022-10-23T05:19:50Z) - Pseudo-Label Noise Suppression Techniques for Semi-Supervised Semantic
Segmentation [21.163070161951868]
半消費学習(SSL)は、教師なしデータをトレーニングに組み込むことで、大きなラベル付きデータセットの必要性を減らすことができる。
現在のSSLアプローチでは、初期教師付きトレーニングモデルを使用して、擬似ラベルと呼ばれる未ラベル画像の予測を生成する。
擬似ラベルノイズと誤りを3つのメカニズムで制御する。
論文 参考訳(メタデータ) (2022-10-19T09:46:27Z) - FreeMatch: Self-adaptive Thresholding for Semi-supervised Learning [46.95063831057502]
本稿では,モデルの学習状況に応じて,信頼度閾値を自己適応的に定義・調整するためのemphFreeMatchを提案する。
FreeMatchは、最新の最先端メソッドであるFlexMatchよりもtextbf5.78%、textbf13.59%、textbf1.28%のエラー率削減を実現している。
論文 参考訳(メタデータ) (2022-05-15T10:07:52Z) - Cross-Model Pseudo-Labeling for Semi-Supervised Action Recognition [98.25592165484737]
CMPL(Cross-Model Pseudo-Labeling)と呼ばれる,より効果的な擬似ラベル方式を提案する。
CMPLは、それぞれRGBモダリティとラベル付きデータのみを使用して、Kinetics-400とUCF-101のTop-1の精度を17.6%と25.1%で達成している。
論文 参考訳(メタデータ) (2021-12-17T18:59:41Z) - Multi-class Probabilistic Bounds for Self-learning [13.875239300089861]
Pseudo-labelingはエラーを起こしやすいため、ラベルなしのトレーニングデータにノイズのあるラベルを追加するリスクがある。
本稿では,多クラス分類シナリオにおける自己学習を部分的にラベル付きデータで分析する確率的枠組みを提案する。
論文 参考訳(メタデータ) (2021-09-29T13:57:37Z) - A Theory-Driven Self-Labeling Refinement Method for Contrastive
Representation Learning [111.05365744744437]
教師なしのコントラスト学習は、正のイメージの作物と、負のイメージの作物とをラベル付けする。
本研究は, コントラスト学習において, 不正確なラベル割り当てがセマンティック・インスタンス識別の一般化を著しく損なうことを最初に証明する。
この理論に触発されて、コントラスト学習のための新しい自己ラベル改善手法を提案する。
論文 参考訳(メタデータ) (2021-06-28T14:24:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。