論文の概要: One-bit Supervision for Image Classification: Problem, Solution, and
Beyond
- arxiv url: http://arxiv.org/abs/2311.15225v1
- Date: Sun, 26 Nov 2023 07:39:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 18:47:55.530663
- Title: One-bit Supervision for Image Classification: Problem, Solution, and
Beyond
- Title(参考訳): 画像分類のための1ビットスーパービジョン:問題、解決策、そしてそれ以上
- Authors: Hengtong Hu, Lingxi Xie, Xinyue Hue, Richang Hong, Qi Tian
- Abstract要約: 本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
- 参考スコア(独自算出の注目度): 114.95815360508395
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents one-bit supervision, a novel setting of learning with
fewer labels, for image classification. Instead of training model using the
accurate label of each sample, our setting requires the model to interact with
the system by predicting the class label of each sample and learn from the
answer whether the guess is correct, which provides one bit (yes or no) of
information. An intriguing property of the setting is that the burden of
annotation largely alleviates in comparison to offering the accurate label.
There are two keys to one-bit supervision, which are (i) improving the guess
accuracy and (ii) making good use of the incorrect guesses. To achieve these
goals, we propose a multi-stage training paradigm and incorporate negative
label suppression into an off-the-shelf semi-supervised learning algorithm.
Theoretical analysis shows that one-bit annotation is more efficient than
full-bit annotation in most cases and gives the conditions of combining our
approach with active learning. Inspired by this, we further integrate the
one-bit supervision framework into the self-supervised learning algorithm which
yields an even more efficient training schedule. Different from training from
scratch, when self-supervised learning is used for initialization, both hard
example mining and class balance are verified effective in boosting the
learning performance. However, these two frameworks still need full-bit labels
in the initial stage. To cast off this burden, we utilize unsupervised domain
adaptation to train the initial model and conduct pure one-bit annotations on
the target dataset. In multiple benchmarks, the learning efficiency of the
proposed approach surpasses that using full-bit, semi-supervised supervision.
- Abstract(参考訳): 本稿では,画像分類のための新しい学習セットであるone-bit supervisorを提案する。
各サンプルの正確なラベルを用いてモデルをトレーニングする代わりに、我々の設定では、各サンプルのクラスラベルを予測し、推測が正しいかどうかを答えから学習することで、情報の1ビット(yes or no)を提供するモデルが必要である。
この設定の興味深い特性は、アノテーションの負担が正確なラベルを提供するよりも大幅に軽減されていることである。
1ビット監視には2つのキーがあります。
一 推測精度及び推定精度の向上
(ii)不正確な推測をうまく利用すること。
これらの目標を達成するために,多段階学習パラダイムを提案し,既成の半教師付き学習アルゴリズムに負のラベル抑圧を組み込む。
理論解析により,1ビットアノテーションは全ビットアノテーションよりも効率が高く,本手法とアクティブラーニングの併用条件が示唆された。
これにより,より効率的なトレーニングスケジュールが得られる自己教師付き学習アルゴリズムに,ワンビット監視フレームワークをさらに統合する。
自己指導型学習を初期化に用いた場合、スクラッチのトレーニングと異なり、ハードサンプルマイニングとクラスバランスの両方が学習性能の向上に有効である。
しかし、これら2つのフレームワークは、初期段階ではフルビットラベルが必要である。
この負担を軽減すべく、教師なしドメイン適応を用いて初期モデルをトレーニングし、ターゲットデータセット上で純粋な1ビットアノテーションを実行する。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Enhancing Hyperspectral Image Prediction with Contrastive Learning in Low-Label Regime [0.810304644344495]
自己教師付きコントラスト学習は、限られたラベル付きデータの課題に対処するための効果的なアプローチである。
単一ラベルと複数ラベルの分類タスクに対して,本手法の性能を評価する。
論文 参考訳(メタデータ) (2024-10-10T10:20:16Z) - Self-Training: A Survey [5.772546394254112]
半教師付きアルゴリズムは、ラベル付き観測の小さなセットとラベルなし観測の大きなセットから予測関数を学習することを目的としている。
近年,自己学習手法が注目されていることは確かである。
本稿では,バイナリクラスとマルチクラス分類のための自己学習手法と,その変種と関連する2つのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-24T11:40:44Z) - Barely-Supervised Learning: Semi-Supervised Learning with very few
labeled images [16.905389887406894]
我々は、画像の弱い拡張バージョンに依存して監視信号を得る、最先端の半教師方式 FixMatch の振舞いを深く分析する。
疑似ラベルを高い信頼性で予測できない場合、トレーニング信号の欠如により、ほとんど監督されていないシナリオで頻繁に失敗することを示す。
本研究では,自信ある擬似ラベルが存在しない状態でのトレーニング信号を提供する自己教師型手法を活用する手法を提案する。
論文 参考訳(メタデータ) (2021-12-22T16:29:10Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Training image classifiers using Semi-Weak Label Data [26.04162590798731]
多重インスタンス学習(MIL)では、弱ラベルがバッグレベルで提供され、存在/存在情報のみが知られる。
本稿では,この問題を軽減するため,新たな半弱ラベル学習パラダイムを提案する。
半弱ラベルから学習する問題に対処する2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-19T03:06:07Z) - One-bit Supervision for Image Classification [121.87598671087494]
1ビットの監視は、不完全なアノテーションから学ぶための新しい設定である。
負ラベル抑圧を既成の半教師付き学習アルゴリズムに組み込んだ多段階学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-09-14T03:06:23Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。