論文の概要: Progressive Feature Adjustment for Semi-supervised Learning from
Pretrained Models
- arxiv url: http://arxiv.org/abs/2309.04659v1
- Date: Sat, 9 Sep 2023 01:57:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 17:18:53.634641
- Title: Progressive Feature Adjustment for Semi-supervised Learning from
Pretrained Models
- Title(参考訳): 事前学習モデルからの半教師付き学習のためのプログレッシブな特徴調整
- Authors: Hai-Ming Xu, Lingqiao Liu, Hao Chen, Ehsan Abbasnejad, Rafael Felix
- Abstract要約: 半教師付き学習(SSL)はラベル付きデータとラベルなしデータの両方を利用して予測モデルを構築することができる。
近年の文献では、事前訓練されたモデルで最先端のSSLを適用しても、トレーニングデータの潜在能力を最大限に発揮できないことが示唆されている。
本稿では,ラベルの誤りに敏感でない特徴抽出器を更新するために,非ラベルデータから擬似ラベルを使用することを提案する。
- 参考スコア(独自算出の注目度): 39.42802115580677
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As an effective way to alleviate the burden of data annotation,
semi-supervised learning (SSL) provides an attractive solution due to its
ability to leverage both labeled and unlabeled data to build a predictive
model. While significant progress has been made recently, SSL algorithms are
often evaluated and developed under the assumption that the network is randomly
initialized. This is in sharp contrast to most vision recognition systems that
are built from fine-tuning a pretrained network for better performance. While
the marriage of SSL and a pretrained model seems to be straightforward, recent
literature suggests that naively applying state-of-the-art SSL with a
pretrained model fails to unleash the full potential of training data. In this
paper, we postulate the underlying reason is that the pretrained feature
representation could bring a bias inherited from the source data, and the bias
tends to be magnified through the self-training process in a typical SSL
algorithm. To overcome this issue, we propose to use pseudo-labels from the
unlabelled data to update the feature extractor that is less sensitive to
incorrect labels and only allow the classifier to be trained from the labeled
data. More specifically, we progressively adjust the feature extractor to
ensure its induced feature distribution maintains a good class separability
even under strong input perturbation. Through extensive experimental studies,
we show that the proposed approach achieves superior performance over existing
solutions.
- Abstract(参考訳): データアノテーションの負担を軽減する効果的な方法として、半教師付き学習(SSL)は、ラベル付きデータとラベルなしデータの両方を活用して予測モデルを構築する能力によって、魅力的なソリューションを提供する。
近年,ネットワークがランダムに初期化されているという前提のもと,SSLアルゴリズムの評価と開発が盛んに行われている。
これは、より優れたパフォーマンスのためにトレーニング済みのネットワークを微調整して構築されたほとんどの視覚認識システムとは対照的である。
SSLと事前トレーニングされたモデルとの結婚は簡単と思われるが、最近の文献では、事前トレーニングされたモデルで最先端のSSLを適用しても、トレーニングデータの潜在能力を最大限に発揮できないことが示唆されている。
本稿では,プリトレーニングされた特徴表現がソースデータから受け継いだバイアスをもたらす可能性があり,一般的なsslアルゴリズムでは,自己学習プロセスを通じてバイアスを拡大する傾向がある,という根本的な理由を仮定する。
この問題を克服するために,ラベルなしデータからの擬似ラベルを用いて,不正確なラベルに対する感度の低い特徴抽出器を更新し,ラベル付きデータから分類器をトレーニングすることを提案する。
具体的には,強い入力摂動の下でも,特徴分布が良好なクラス分離性を維持するために,特徴抽出器を段階的に調整する。
本研究では,提案手法が既存のソリューションよりも優れた性能を発揮することを示す。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - A Self-Supervised Learning Pipeline for Demographically Fair Facial Attribute Classification [3.5092955099876266]
本稿では,人口統計学的に公平な顔属性分類のための完全自己教師付きパイプラインを提案する。
我々は、事前訓練されたエンコーダ、多様なデータキュレーション技術、メタラーニングに基づく重み付きコントラスト学習を通じて、完全にラベル付けされていないデータを活用する。
論文 参考訳(メタデータ) (2024-07-14T07:11:57Z) - Reinforcement Learning-Guided Semi-Supervised Learning [20.599506122857328]
本稿では,SSLを片腕バンディット問題として定式化する新しい強化学習ガイド型SSL手法 RLGSSL を提案する。
RLGSSLは、ラベル付きデータとラベルなしデータのバランスを保ち、一般化性能を向上させるために、慎重に設計された報酬関数を組み込んでいる。
我々は,複数のベンチマークデータセットに対する広範な実験を通じてRCGSSLの有効性を実証し,我々の手法が最先端のSSL手法と比較して一貫した優れた性能を実現することを示す。
論文 参考訳(メタデータ) (2024-05-02T21:52:24Z) - Semi-Supervised Class-Agnostic Motion Prediction with Pseudo Label
Regeneration and BEVMix [59.55173022987071]
クラス非依存動作予測のための半教師あり学習の可能性について検討する。
我々のフレームワークは一貫性に基づく自己学習パラダイムを採用しており、ラベルのないデータからモデルを学習することができる。
本手法は,弱さと完全教師付き手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-12-13T09:32:50Z) - Benchmark for Uncertainty & Robustness in Self-Supervised Learning [0.0]
セルフ・スーパーバイザード・ラーニングは現実世界のアプリケーション、特に医療や自動運転車のようなデータ・ハングリーな分野に不可欠である。
本稿では Jigsaw Puzzles, Context, Rotation, Geometric Transformations Prediction for vision や BERT や GPT for Language Task など,SSL メソッドの変種について検討する。
我々のゴールは、実験から出力されたベンチマークを作成し、信頼性のある機械学習で新しいSSLメソッドの出発点を提供することです。
論文 参考訳(メタデータ) (2022-12-23T15:46:23Z) - MaxMatch: Semi-Supervised Learning with Worst-Case Consistency [149.03760479533855]
半教師付き学習(SSL)のための最悪ケース整合正則化手法を提案する。
本稿では,ラベル付きトレーニングデータとラベル付きトレーニングデータとを別々に比較した経験的損失項からなるSSLの一般化について述べる。
この境界によって動機づけられたSSLの目的は、元のラベルのないサンプルと、その複数の拡張版との最大の矛盾を最小限に抑えるものである。
論文 参考訳(メタデータ) (2022-09-26T12:04:49Z) - Revisiting Pretraining for Semi-Supervised Learning in the Low-Label
Regime [15.863530936691157]
半教師付き学習(SSL)は、擬似ラベル付けによって大きなラベル付きデータを活用することでラベル付きデータの欠如に対処する。
近年の研究では、訓練済み重量の微調整(FT)をSSLと組み合わせて課題を緩和し、低ラベル体制においてより優れた結果を主張している。
論文 参考訳(メタデータ) (2022-05-06T03:53:25Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。