論文の概要: One-bit Supervision for Image Classification
- arxiv url: http://arxiv.org/abs/2009.06168v3
- Date: Tue, 11 May 2021 06:35:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 12:26:02.238788
- Title: One-bit Supervision for Image Classification
- Title(参考訳): 画像分類のための1ビット監督
- Authors: Hengtong Hu, Lingxi Xie, Zewei Du, Richang Hong, Qi Tian
- Abstract要約: 1ビットの監視は、不完全なアノテーションから学ぶための新しい設定である。
負ラベル抑圧を既成の半教師付き学習アルゴリズムに組み込んだ多段階学習パラダイムを提案する。
- 参考スコア(独自算出の注目度): 121.87598671087494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents one-bit supervision, a novel setting of learning from
incomplete annotations, in the scenario of image classification. Instead of
training a model upon the accurate label of each sample, our setting requires
the model to query with a predicted label of each sample and learn from the
answer whether the guess is correct. This provides one bit (yes or no) of
information, and more importantly, annotating each sample becomes much easier
than finding the accurate label from many candidate classes. There are two keys
to training a model upon one-bit supervision: improving the guess accuracy and
making use of incorrect guesses. For these purposes, we propose a multi-stage
training paradigm which incorporates negative label suppression into an
off-the-shelf semi-supervised learning algorithm. In three popular image
classification benchmarks, our approach claims higher efficiency in utilizing
the limited amount of annotations.
- Abstract(参考訳): 本稿では、画像分類のシナリオにおいて、不完全なアノテーションから学習する新しい一ビット監視について述べる。
各サンプルの正確なラベルに基づいてモデルをトレーニングする代わりに、我々の設定では、予測された各サンプルのラベルに問い合わせ、その推測が正しいかどうかを答えから学ぶ必要がある。
これは1ビット(yesかno)の情報を提供し、さらに重要なことに、各サンプルに注釈をつけることは、多くの候補クラスから正確なラベルを見つけるよりもずっと簡単になる。
1ビットの監督下でモデルをトレーニングするには、2つのキーがあります。
これらの目的のために、負ラベル抑圧を半教師付き学習アルゴリズムに組み込んだ多段階学習パラダイムを提案する。
一般的な3つの画像分類ベンチマークでは,アノテーションの利用効率が向上している。
関連論文リスト
- Pre-Trained Vision-Language Models as Partial Annotators [40.89255396643592]
事前学習された視覚言語モデルは、画像と自然言語の統一表現をモデル化するために大量のデータを学習する。
本稿では,事前学習型モデルアプリケーションのための「事前学習型-弱教師付き学習」パラダイムについて検討し,画像分類タスクの実験を行う。
論文 参考訳(メタデータ) (2024-05-23T17:17:27Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - An analysis of over-sampling labeled data in semi-supervised learning
with FixMatch [66.34968300128631]
ほとんどの半教師付き学習手法は、ミニバッチを訓練する際にラベルをオーバーサンプルする。
本稿では,この実践が学習と方法を改善するかどうかを考察する。
ラベル付けの有無に関わらず、トレーニングデータから各ミニバッチを均一にサンプリングする別の設定と比較する。
論文 参考訳(メタデータ) (2022-01-03T12:22:26Z) - Barely-Supervised Learning: Semi-Supervised Learning with very few
labeled images [16.905389887406894]
我々は、画像の弱い拡張バージョンに依存して監視信号を得る、最先端の半教師方式 FixMatch の振舞いを深く分析する。
疑似ラベルを高い信頼性で予測できない場合、トレーニング信号の欠如により、ほとんど監督されていないシナリオで頻繁に失敗することを示す。
本研究では,自信ある擬似ラベルが存在しない状態でのトレーニング信号を提供する自己教師型手法を活用する手法を提案する。
論文 参考訳(メタデータ) (2021-12-22T16:29:10Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。