論文の概要: Beyond Random Augmentations: Pretraining with Hard Views
- arxiv url: http://arxiv.org/abs/2310.03940v5
- Date: Mon, 27 May 2024 21:19:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 04:17:08.439197
- Title: Beyond Random Augmentations: Pretraining with Hard Views
- Title(参考訳): Beyond Random Augmentations: ハードビューによる事前トレーニング
- Authors: Fabio Ferreira, Ivo Rapant, Jörg K. H. Franke, Frank Hutter,
- Abstract要約: Hard View Pretraining (HVP)は、SSL事前トレーニング中にモデルをより難しく、より困難なサンプルに公開する学習不要の戦略である。
HVPは、100と300のエポック事前学習において、ImageNetの平均で1%の線形評価精度の向上を実現している。
- 参考スコア(独自算出の注目度): 40.88518237601708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many Self-Supervised Learning (SSL) methods aim for model invariance to different image augmentations known as views. To achieve this invariance, conventional approaches make use of random sampling operations within the image augmentation pipeline. We hypothesize that the efficacy of pretraining pipelines based on conventional random view sampling can be enhanced by explicitly selecting views that benefit the learning progress. A simple, yet effective approach is to select hard views that yield a higher loss. In this paper, we present Hard View Pretraining (HVP), a learning-free strategy that builds upon this hypothesis and extends random view generation. HVP exposes the model to harder, more challenging samples during SSL pretraining, which enhances downstream performance. It encompasses the following iterative steps: 1) randomly sample multiple views and forward each view through the pretrained model, 2) create pairs of two views and compute their loss, 3) adversarially select the pair yielding the highest loss depending on the current model state, and 4) run the backward pass with the selected pair. As a result, HVP achieves linear evaluation accuracy improvements of 1% on average on ImageNet for both 100 and 300 epoch pretraining and similar improvements on transfer tasks across DINO, SimSiam, iBOT, and SimCLR.
- Abstract(参考訳): 多くの自己監視学習(SSL)メソッドは、ビューとして知られる様々な画像拡張に対するモデル不変性を目標としている。
この不変性を達成するために、従来の手法では画像拡張パイプライン内のランダムサンプリング操作を利用する。
従来のランダム・ビュー・サンプリングに基づく事前学習パイプラインの有効性は、学習の進歩に寄与するビューを明示的に選択することで向上できると仮定する。
シンプルで効果的なアプローチは、高い損失をもたらすハードビューを選択することです。
本稿では,この仮説に基づいてランダムなビュー生成を拡張する学習自由戦略であるHVPを提案する。
HVPはSSL事前トレーニング中にモデルをより難しく、より難しいサンプルに公開することで、下流のパフォーマンスが向上する。
以下の反復的なステップを包含する。
1) ランダムに複数のビューをサンプリングし、事前訓練されたモデルを通して各ビューを前進させる。
2) 2つのビューのペアを作成し、損失を計算する。
3) 現在のモデル状態に応じて、最も損失率の高いペアを逆選択し、
4) 選択したペアで後方パスを実行する。
その結果,DINO,SimSiam,iBOT,SimCLRにまたがる転送タスクにおいて,100および300のエポック事前学習と類似した改善を,ImageNet上で平均1%の線形評価精度で達成した。
関連論文リスト
- EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - Test-Time Prompt Tuning for Zero-Shot Generalization in Vision-Language
Models [107.05966685291067]
テスト時間プロンプトチューニング (TPT) を提案し, 適応的なプロンプトを1つのテストサンプルで学習する。
TPTはCLIPのゼロショットトップ1の精度を平均3.6%改善する。
クロスデータセットの一般化を目に見えないカテゴリで評価する際、PTは追加のトレーニングデータを使用する最先端のアプローチと同等に機能する。
論文 参考訳(メタデータ) (2022-09-15T17:55:11Z) - Virtual embeddings and self-consistency for self-supervised learning [43.086696088061416]
TriMixは、線形データを通じて仮想埋め込みを生成する自己教師型学習の新しい概念である。
我々は,TriMixを2.71%,0.41%改善した8つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-06-13T10:20:28Z) - SPeCiaL: Self-Supervised Pretraining for Continual Learning [49.34919926042038]
SPeCiaLは、継続学習に適した表現の教師なし事前学習方法である。
本研究では,SPeCiaLを連続的なFew-Shot学習環境において評価し,他の教師付き事前学習手法に適合または優れることを示す。
論文 参考訳(メタデータ) (2021-06-16T18:15:15Z) - Jigsaw Clustering for Unsupervised Visual Representation Learning [68.09280490213399]
本稿では,新しいjigsawクラスタリング・プレテキストタスクを提案する。
本手法は画像内情報と画像間情報の両方を利用する。
トレーニングバッチの半分しか使用されていない場合、コントラスト学習方法にも匹敵します。
論文 参考訳(メタデータ) (2021-04-01T08:09:26Z) - Self-supervised Pre-training with Hard Examples Improves Visual
Representations [110.23337264762512]
自己教師付き事前学習(ssp)は、ランダムな画像変換を用いて視覚表現学習のためのトレーニングデータを生成する。
まず,既存のSSPメソッドを擬似ラベル予測学習として統合するモデリングフレームワークを提案する。
そこで本研究では,疑似ラベルの予測が難しい学習例をランダムな画像変換で生成するデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2020-12-25T02:44:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。