論文の概要: Couple Learning: Mean Teacher method with pseudo-labels improves
semi-supervised deep learning results
- arxiv url: http://arxiv.org/abs/2110.05809v1
- Date: Tue, 12 Oct 2021 08:11:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 15:37:42.234256
- Title: Couple Learning: Mean Teacher method with pseudo-labels improves
semi-supervised deep learning results
- Title(参考訳): カップル学習:疑似ラベルを用いた平均教師法による半教師付き深層学習結果の改善
- Authors: Rui Tao, Long Yan, Kazushige Ouchi, Xiangdong Wang
- Abstract要約: Mean Teacherは、いくつかの半教師付き学習ベンチマークで最先端の結果を達成した。
提案した擬似ラベル生成モデル(PLG)は、強いラベル付きデータと弱いラベル付きデータを増やすことができる。
The Couple Learning method can extract more information in the compound training data。
- 参考スコア(独自算出の注目度): 5.218882272051637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recently proposed Mean Teacher has achieved state-of-the-art results in
several semi-supervised learning benchmarks. The Mean Teacher method can
exploit large-scale unlabeled data in a self-ensembling manner. In this paper,
an effective Couple Learning method based on a well-trained model and a Mean
Teacher model is proposed. The proposed pseudo-labels generated model (PLG) can
increase strongly-labeled data and weakly-labeled data to improve performance
of the Mean Teacher method. The Mean Teacher method can suppress noise in
pseudo-labels data. The Couple Learning method can extract more information in
the compound training data. These experimental results on Task 4 of the
DCASE2020 challenge demonstrate the superiority of the proposed method,
achieving about 39.18% F1-score on public eval set, outperforming 37.12% of the
baseline system by a significant margin.
- Abstract(参考訳): 最近提案された平均教師は、いくつかの半教師付き学習ベンチマークで最先端の結果を得た。
平均教師法は,大規模未ラベルデータを自己認識的に活用することができる。
本稿では, よく訓練されたモデルと平均教師モデルに基づく効果的な結合学習手法を提案する。
提案する擬似ラベル生成モデル (plg) は, 強ラベルデータと弱ラベルデータを増やし, 平均教師法の性能を向上させる。
平均教師法は擬似ラベルデータのノイズを抑制することができる。
複合学習データにより多くの情報を抽出することができる。
dcase2020チャレンジのタスク4におけるこれらの実験結果は、提案手法の優位性を示し、公的なevalセット上で39.18%のf1-scoreを達成し、ベースラインシステムの37.12%をかなりのマージンで上回った。
関連論文リスト
- Dual-Decoupling Learning and Metric-Adaptive Thresholding for Semi-Supervised Multi-Label Learning [81.83013974171364]
半教師付きマルチラベル学習(SSMLL)は、正確なマルチラベルアノテーションを収集するコストを削減するために、ラベルのないデータを活用する強力なフレームワークである。
半教師付き学習とは異なり、インスタンスに含まれる複数のセマンティクスのため、SSMLLの擬似ラベルとして最も確率の高いラベルを選択することはできない。
本稿では,高品質な擬似ラベルを生成するための二重パースペクティブ手法を提案する。
論文 参考訳(メタデータ) (2024-07-26T09:33:53Z) - Collaboration of Teachers for Semi-supervised Object Detection [20.991741476731967]
本稿では,教師と学生の複数対の学習モデルからなるCTF(Collaboration of Teachers Framework)を提案する。
このフレームワークは、ラベルのないデータの利用を大幅に改善し、信頼できない擬似ラベルの正のフィードバックサイクルを防止する。
論文 参考訳(メタデータ) (2024-05-22T06:17:50Z) - Noisy Node Classification by Bi-level Optimization based Multi-teacher Distillation [17.50773984154023]
本稿では,二段階最適化(BO-NNC)に基づく多段階蒸留法を提案する。
具体的には、まず複数の自己教師型学習手法を用いて、多様な教師モデルの学習を行い、その後、教師の重み行列を通じて予測を集約する。
さらに,教師の重み行列を学生モデルの訓練進捗に基づいて動的に調整する二段階最適化手法を考案した。
論文 参考訳(メタデータ) (2024-04-27T12:19:08Z) - ESimCSE Unsupervised Contrastive Learning Jointly with UDA
Semi-Supervised Learning for Large Label System Text Classification Mode [4.708633772366381]
ESimCSEモデルは、ラベルのないデータを用いてテキストベクトル表現を効率よく学習し、より良い分類結果を得る。
UDAは、モデルと安定性の予測性能を改善するために、半教師付き学習手法を通じてラベルのないデータを用いて訓練される。
FGMとPGDは、モデルの堅牢性と信頼性を向上させるために、モデルトレーニングプロセスで使用される。
論文 参考訳(メタデータ) (2023-04-19T03:44:23Z) - Active Teacher for Semi-Supervised Object Detection [80.10937030195228]
半教師対象検出(SSOD)のための能動教師と呼ばれる新しいアルゴリズムを提案する。
Active Teacherは、教師/学生のフレームワークを反復的なバージョンに拡張し、ラベルセットを部分的に段階的に拡張し、ラベルなし例の3つの重要な要素を評価する。
この設計により、Active Teacherは、擬似ラベルの品質を改善しながら、限られたラベル情報の効果を最大化することができる。
論文 参考訳(メタデータ) (2023-03-15T03:59:27Z) - Boosting Facial Expression Recognition by A Semi-Supervised Progressive
Teacher [54.50747989860957]
本稿では,信頼度の高いFERデータセットと大規模未ラベル表現画像を有効訓練に用いるための半教師付き学習アルゴリズム,Progressive Teacher (PT)を提案する。
RAF-DB と FERPlus を用いた実験により,RAF-DB で89.57% の精度で最先端の性能を実現する手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-05-28T07:47:53Z) - Investigating a Baseline Of Self Supervised Learning Towards Reducing
Labeling Costs For Image Classification [0.0]
この研究は、Kaggle.comの cat-vs-dogs データセット Mnist と Fashion-Mnist を実装し、自己教師型学習タスクを調査している。
その結果、自己教師型学習におけるプレテキスト処理は、下流分類タスクの約15%の精度を向上させることがわかった。
論文 参考訳(メタデータ) (2021-08-17T06:43:05Z) - A Novel Perspective for Positive-Unlabeled Learning via Noisy Labels [49.990938653249415]
本研究では,初期疑似ラベルを雑音ラベルデータとして用いる非ラベルデータに割り当て,雑音ラベルデータを用いて深層ニューラルネットワークを訓練する手法を提案する。
実験の結果,提案手法は,いくつかのベンチマークデータセットにおいて,最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-03-08T11:46:02Z) - SLADE: A Self-Training Framework For Distance Metric Learning [75.54078592084217]
我々は、追加のラベルのないデータを活用することで、検索性能を向上させるための自己学習フレームワークSLADEを提案する。
まず、ラベル付きデータに基づいて教師モデルをトレーニングし、ラベルなしデータに対して擬似ラベルを生成する。
次に、最終機能埋め込みを生成するために、ラベルと擬似ラベルの両方で学生モデルをトレーニングします。
論文 参考訳(メタデータ) (2020-11-20T08:26:10Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。