論文の概要: Cross-Model Pseudo-Labeling for Semi-Supervised Action Recognition
- arxiv url: http://arxiv.org/abs/2112.09690v1
- Date: Fri, 17 Dec 2021 18:59:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 15:59:29.785422
- Title: Cross-Model Pseudo-Labeling for Semi-Supervised Action Recognition
- Title(参考訳): 半教師付き動作認識のためのクロスモデル擬似ラベル
- Authors: Yinghao Xu, Fangyun Wei, Xiao Sun, Ceyuan Yang, Yujun Shen, Bo Dai,
Bolei Zhou, Stephen Lin
- Abstract要約: CMPL(Cross-Model Pseudo-Labeling)と呼ばれる,より効果的な擬似ラベル方式を提案する。
CMPLは、それぞれRGBモダリティとラベル付きデータのみを使用して、Kinetics-400とUCF-101のTop-1の精度を17.6%と25.1%で達成している。
- 参考スコア(独自算出の注目度): 98.25592165484737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised action recognition is a challenging but important task due to
the high cost of data annotation. A common approach to this problem is to
assign unlabeled data with pseudo-labels, which are then used as additional
supervision in training. Typically in recent work, the pseudo-labels are
obtained by training a model on the labeled data, and then using confident
predictions from the model to teach itself. In this work, we propose a more
effective pseudo-labeling scheme, called Cross-Model Pseudo-Labeling (CMPL).
Concretely, we introduce a lightweight auxiliary network in addition to the
primary backbone, and ask them to predict pseudo-labels for each other. We
observe that, due to their different structural biases, these two models tend
to learn complementary representations from the same video clips. Each model
can thus benefit from its counterpart by utilizing cross-model predictions as
supervision. Experiments on different data partition protocols demonstrate the
significant improvement of our framework over existing alternatives. For
example, CMPL achieves $17.6\%$ and $25.1\%$ Top-1 accuracy on Kinetics-400 and
UCF-101 using only the RGB modality and $1\%$ labeled data, outperforming our
baseline model, FixMatch, by $9.0\%$ and $10.3\%$, respectively.
- Abstract(参考訳): 半教師付きアクション認識は、データアノテーションのコストが高いため、難しいが重要なタスクである。
この問題に対する一般的なアプローチは、ラベルのないデータを擬似ラベルで割り当て、トレーニングにおける追加の監督として使用することである。
最近の研究では、擬似ラベルはラベル付きデータ上でモデルを訓練し、モデルから自信ある予測を用いて自身を教えることによって得られる。
本研究では,Cross-Model Pseudo-Labeling (CMPL) と呼ばれる,より効果的な擬似ラベル方式を提案する。
具体的には,プライマリバックボーンに加えて,軽量な補助ネットワークを導入し,相互に擬似ラベルの予測を依頼する。
構造バイアスが異なるため、これらの2つのモデルは、同じビデオクリップから相補的な表現を学習する傾向にある。
したがって、各モデルは、相互モデルの予測を監督として利用することで、そのモデルの利点を享受できる。
異なるデータ分割プロトコルに関する実験は、既存の代替案よりもフレームワークの大幅な改善を示しています。
例えば、CMPLは、RGBモダリティとラベル付きデータのみを使用して、Kinetics-400とUCF-101で17.6\%と25.1\%のTop-1精度を達成し、ベースラインモデルであるFixMatchをそれぞれ9.0\%と10.3\%で上回る。
関連論文リスト
- Boosting Semi-Supervised Learning by bridging high and low-confidence
predictions [4.18804572788063]
Pseudo-labelingは半教師あり学習(SSL)において重要な技術である
ReFixMatchと呼ばれる新しい手法を提案し、これはトレーニング中にラベルなしのデータをすべて活用することを目的としている。
論文 参考訳(メタデータ) (2023-08-15T00:27:18Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Semi-Supervised Semantic Segmentation via Gentle Teaching Assistant [72.4512562104361]
擬似ラベル付きラベル付きラベル付きデータは,特徴抽出器における代表的特徴の学習を容易にすることができると論じる。
そこで本研究では,擬似ラベルが特徴抽出器やマスク予測器に与える影響を解消する新しい枠組みであるジェントル指導アシスタント(GTA-Seg)を提案する。
論文 参考訳(メタデータ) (2023-01-18T07:11:24Z) - Ground Truth Inference for Weakly Supervised Entity Matching [76.6732856489872]
弱監督タスクのための単純だが強力なラベル付けモデルを提案する。
次に、エンティティマッチングのタスクに特化してラベルモデルを調整します。
その結果,従来の手法よりもF1スコアが9%高い結果が得られた。
論文 参考訳(メタデータ) (2022-11-13T17:57:07Z) - Pseudo-Label Noise Suppression Techniques for Semi-Supervised Semantic
Segmentation [21.163070161951868]
半消費学習(SSL)は、教師なしデータをトレーニングに組み込むことで、大きなラベル付きデータセットの必要性を減らすことができる。
現在のSSLアプローチでは、初期教師付きトレーニングモデルを使用して、擬似ラベルと呼ばれる未ラベル画像の予測を生成する。
擬似ラベルノイズと誤りを3つのメカニズムで制御する。
論文 参考訳(メタデータ) (2022-10-19T09:46:27Z) - Momentum Pseudo-Labeling for Semi-Supervised Speech Recognition [55.362258027878966]
本稿では,半教師付き音声認識のための簡易かつ効果的な手法として,モーメント擬似ラベル(MPL)を提案する。
MPLは、平均的な教師メソッドにインスパイアされて、相互に相互作用し、学習するオンラインとオフラインの2つのモデルで構成されている。
実験の結果,MPLはベースモデルよりも効果的に改善され,様々な半教師付きシナリオに拡張可能であることが示された。
論文 参考訳(メタデータ) (2021-06-16T16:24:55Z) - SLADE: A Self-Training Framework For Distance Metric Learning [75.54078592084217]
我々は、追加のラベルのないデータを活用することで、検索性能を向上させるための自己学習フレームワークSLADEを提案する。
まず、ラベル付きデータに基づいて教師モデルをトレーニングし、ラベルなしデータに対して擬似ラベルを生成する。
次に、最終機能埋め込みを生成するために、ラベルと擬似ラベルの両方で学生モデルをトレーニングします。
論文 参考訳(メタデータ) (2020-11-20T08:26:10Z) - How to trust unlabeled data? Instance Credibility Inference for Few-Shot
Learning [47.21354101796544]
本稿では,未ラベルのインスタンスを数発の視覚認識に利用するために,ICI (Instance Credibility Inference) と呼ばれる統計的アプローチを提案する。
擬似ラベル付きインスタンスの信頼性は, それらの付随パラメータの正規化経路に沿ってランク付けし, 最も信頼性の高い擬似ラベル付きインスタンスを拡張ラベル付きインスタンスとして保存する。
論文 参考訳(メタデータ) (2020-07-15T03:38:09Z) - Instance Credibility Inference for Few-Shot Learning [45.577880041135785]
ほとんどショットラーニングは、カテゴリごとに非常に限られたトレーニングデータを持つ新しいオブジェクトを認識することを目的としていない。
本稿では,未ラベルのインスタンスの分散サポートを数発の学習に活用するために,ICI (Instance Credibility Inference) と呼ばれる単純な統計手法を提案する。
我々の単純なアプローチは、広く使われている4つのショットラーニングベンチマークデータセットに基づいて、最先端の新たなデータセットを確立することができる。
論文 参考訳(メタデータ) (2020-03-26T12:01:15Z) - Rethinking Curriculum Learning with Incremental Labels and Adaptive
Compensation [35.593312267921256]
人間と同様に、ディープネットワークは、サンプルが組織化され、意味のある順序やカリキュラムで導入されたときに、よりよく学習することが示されている。
インクリメンタルラベルと適応補償を用いた学習(LILAC)を提案する。
論文 参考訳(メタデータ) (2020-01-13T21:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。