論文の概要: ActiveMatch: End-to-end Semi-supervised Active Representation Learning
- arxiv url: http://arxiv.org/abs/2110.02521v1
- Date: Wed, 6 Oct 2021 06:07:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:27:03.711436
- Title: ActiveMatch: End-to-end Semi-supervised Active Representation Learning
- Title(参考訳): ActiveMatch: エンドツーエンドの半教師付きアクティブ表現学習
- Authors: Xinkai Yuan, Zilinghan Li, Gaoang Wang (Zhejiang University-University
of Illinois at Urbana-Champaign Institute, Zhejiang University)
- Abstract要約: 半教師付き学習(SSL)は、ラベル付きデータとラベルなしデータの両方でモデルをトレーニングできる効率的なフレームワークである。
SSLとコントラスト学習とアクティブ学習を組み合わせることで,限定ラベルを完全に活用するActiveMatchを提案する。
MixMatchやFixMatchと比較して、ActiveMatchは最先端のパフォーマンスを実現しており、CIFAR-10では89.24の精度で100のラベルを収集し、92.20の精度で200のラベルを収集した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised learning (SSL) is an efficient framework that can train
models with both labeled and unlabeled data. However, constrained by the
limited number of labels, the learned representations of SSL are ambiguous and
not distinguishable for inter-class samples. Moreover, the performance of SSL
is also largely dependent on the model initialization. To deal with the
drawbacks of SSL, in this paper, we propose a novel end-to-end representation
learning method, namely ActiveMatch, which combines SSL with contrastive
learning and active learning to fully leverage the limited labels. Starting
from a small amount of labeled data with unsupervised contrastive learning as a
warm-up, ActiveMatch then combines SSL and supervised contrastive learning, and
actively selects the most representative samples for labeling during the
training, resulting in better representations towards the classification.
Compared with MixMatch and FixMatch, we show that ActiveMatch achieves the
state-of-the-art performance, with 89.24 accuracy on CIFAR-10 with 100
collected labels, and 92.20 accuracy with 200 collected labels.
- Abstract(参考訳): semi-supervised learning (ssl)はラベル付きデータとラベルなしデータの両方でモデルをトレーニングできる効率的なフレームワークである。
しかし、ラベル数が限られているため、SSLの学習された表現は曖昧であり、クラス間のサンプルでは区別できない。
さらに、SSLのパフォーマンスもモデルの初期化に大きく依存している。
本稿では、SSLの欠点に対処するために、SSLとコントラスト学習とアクティブ学習を組み合わせて制限ラベルを完全に活用する、新しいエンドツーエンド表現学習手法であるActiveMatchを提案する。
少数のラベル付きデータと教師なしのコントラスト学習をウォームアップとして開始すると、ActiveMatchはSSLと教師付きコントラスト学習を組み合わせて、トレーニング中にラベル付けのための最も代表的なサンプルを積極的に選択する。
mixmatch と fixmatch と比較すると、activematch は 89.24 の精度で cifar-10 に 100 個のラベルを収集し、92.20 の精度で 200 個のラベルを収集した。
関連論文リスト
- Enhancing Semi-supervised Learning with Noisy Zero-shot Pseudolabels [3.1614158472531435]
ZMT(Zero-Shot Multi-Task Learning)は,ゼロショット擬似ラベルと教師なし表現学習を協調的に最適化するフレームワークである。
本手法では,擬似ラベルを組み込んだマルチタスク学習機構を導入し,擬似ラベルの品質の変動に頑健性を確保した。
ビジョン、言語、オーディオドメインの8つのデータセットを対象とした実験では、ZMTは従来のSSLメソッドと比較してエラーを最大56%削減している。
論文 参考訳(メタデータ) (2025-02-18T06:41:53Z) - InterLUDE: Interactions between Labeled and Unlabeled Data to Enhance Semi-Supervised Learning [13.010558192697133]
半教師付き学習(SSL)はラベル付きデータとラベルなしデータの両方でトレーニングすることでタスクパフォーマンスを向上させる。
本稿では,ラベル付きラベルなしインタラクションの恩恵を受ける2つの部分からなるSSLを強化するための新しいアプローチであるInterLUDEを紹介する。
論文 参考訳(メタデータ) (2024-03-15T19:54:10Z) - Semi-Supervised Learning in the Few-Shot Zero-Shot Scenario [14.916971861796384]
Semi-Supervised Learning (SSL)は、ラベル付きデータとラベルなしデータの両方を利用して、モデルのパフォーマンスを向上させるフレームワークである。
既存のSSLメソッドを拡張し、特定のクラスが欠落している状況に対処するための一般的なアプローチを提案する。
実験の結果,最先端のSSL,オープンセットのSSL,オープンワールドのSSLメソッドと比較して,精度が大幅に向上した。
論文 参考訳(メタデータ) (2023-08-27T14:25:07Z) - Channel-Wise Contrastive Learning for Learning with Noisy Labels [60.46434734808148]
チャネルワイド・コントラッシブ・ラーニング(CWCL)を導入し,真正なラベル情報とノイズを区別する。
従来のインスタンス単位のコントラスト学習(IWCL)とは異なり、CWCLはよりニュアンスでレジリエントな特徴を真のラベルと一致させる傾向にある。
まずCWCLを用いて、クリーンにラベル付けされたサンプルを識別し、次に、これらのサンプルを段階的に微調整する。
論文 参考訳(メタデータ) (2023-08-14T06:04:50Z) - Pseudo-Labeling Based Practical Semi-Supervised Meta-Training for Few-Shot Learning [93.63638405586354]
擬似ラベルベースメタラーニング(PLML)という,シンプルで効果的なメタトレーニングフレームワークを提案する。
まず、一般的な半教師付き学習(SSL)を用いて分類器を訓練し、ラベルなしデータの擬似ラベルを得る。
ラベル付きおよび擬似ラベル付きデータから数ショットのタスクを構築し、特徴の平滑化と雑音抑圧を伴う新しい微調整法を設計する。
論文 参考訳(メタデータ) (2022-07-14T10:53:53Z) - Class-Aware Contrastive Semi-Supervised Learning [51.205844705156046]
本研究では,擬似ラベル品質を向上し,実環境におけるモデルの堅牢性を高めるため,CCSSL(Class-Aware Contrastive Semi-Supervised Learning)と呼ばれる一般的な手法を提案する。
提案するCCSSLは,標準データセットCIFAR100とSTL10の最先端SSLメソッドに対して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2022-03-04T12:18:23Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - Boosting the Performance of Semi-Supervised Learning with Unsupervised
Clustering [10.033658645311188]
学習中の間欠的にラベルを完全に無視することは,小サンプル体制における性能を著しく向上させることを示す。
本手法は,最先端のSSLアルゴリズムの高速化に有効であることを示す。
論文 参考訳(メタデータ) (2020-12-01T14:19:14Z) - CoMatch: Semi-supervised Learning with Contrastive Graph Regularization [86.84486065798735]
CoMatchは、支配的なアプローチを統一する、新しい半教師付き学習手法である。
複数のデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-11-23T02:54:57Z) - FixMatch: Simplifying Semi-Supervised Learning with Consistency and
Confidence [93.91751021370638]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルの性能を向上させる効果的な手段を提供する。
本稿では、整合正則化と擬似ラベル付けという2つの共通SSL手法の単純な組み合わせのパワーを実証する。
筆者らのアルゴリズムであるFixMatchは、まず、弱拡張未ラベル画像上のモデルの予測を用いて擬似ラベルを生成する。
論文 参考訳(メタデータ) (2020-01-21T18:32:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。