論文の概要: Hard View Selection for Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2310.03940v4
- Date: Sun, 31 Dec 2023 05:46:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 01:34:51.000250
- Title: Hard View Selection for Self-Supervised Learning
- Title(参考訳): 自己監督型学習のためのハードビュー選択
- Authors: Fabio Ferreira, Ivo Rapant, Frank Hutter
- Abstract要約: Hard View Selection(HVS)は、SSLトレーニング中にトレーニング済みのモデルをより難しいサンプルに公開するために設計された戦略である。
HVSは一貫して、線形評価において ImageNet の精度を 0.4% から 1.9% 改善している。
- 参考スコア(独自算出の注目度): 47.742531392857444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many Self-Supervised Learning (SSL) methods train their models to be
invariant to different "views" of an image input for which a good data
augmentation pipeline is crucial. While considerable efforts were directed
towards improving pre-text tasks, architectures, or robustness (e.g., Siamese
networks or teacher-softmax centering), the majority of these methods remain
strongly reliant on the random sampling of operations within the image
augmentation pipeline, such as the random resized crop or color distortion
operation. In this paper, we argue that the role of the view generation and its
effect on performance has so far received insufficient attention. To address
this, we propose an easy, learning-free, yet powerful Hard View Selection (HVS)
strategy designed to extend the random view generation to expose the pretrained
model to harder samples during SSL training. It encompasses the following
iterative steps: 1) randomly sample multiple views and create pairs of two
views, 2) run forward passes for each view pair on the currently trained model,
3) adversarially select the pair yielding the worst loss, and 4) run the
backward pass with the selected pair. In our empirical analysis we show that
under the hood, HVS increases task difficulty by controlling the Intersection
over Union of views during pretraining. With only 300-epoch pretraining, HVS is
able to closely rival the 800-epoch DINO baseline which remains very favorable
even when factoring in the slowdown induced by the additional forwards of HVS.
Additionally, HVS consistently achieves accuracy improvements on ImageNet
between 0.4% and 1.9% on linear evaluation and similar improvements on transfer
tasks across multiple SSL methods, such as DINO, SimSiam, iBOT, and SimCLR.
- Abstract(参考訳): 多くの自己監視学習(SSL)メソッドは、優れたデータ拡張パイプラインが不可欠であるイメージ入力の異なる"ビュー"に不変であるようにモデルをトレーニングする。
プリテキストタスク、アーキテクチャ、ロバスト性の改善(例えば、シームズネットワークや教師ソフトマックス中心化など)にかなりの努力が払われたが、これらの手法の大半は、ランダムな再サイズ作物や色歪み操作のような画像拡張パイプライン内の操作のランダムサンプリングに強く依存している。
本稿では,ビュー生成の役割とそのパフォーマンスへの影響が,これまでのところ十分注目されていないことを論じる。
これに対処するために,ssl トレーニング中にトレーニング済みモデルをハードサンプルに公開するために,ランダムビュー生成を拡張するように設計された,簡単で学習不要かつ強力なハードビュー選択 (hvs) 戦略を提案する。
以下の反復的なステップを含む。
1)複数のビューをランダムにサンプリングし、2つのビューのペアを作成する。
2) トレーニング済みのモデルでは,ビューペアごとに前方パスを実行します。
3) 反対に,最悪の損失をもたらすペアを選択し,
4) 選択したペアで後方パスを実行する。
実験分析の結果,hvsでは,事前学習中のビューの結合を制御し,タスクの難易度を高めることが示された。
300-epochプリトレインのみにより、hvsは800-epoch dinoベースラインと密接に競合することができ、これはhvsの追加のフォワードによって引き起こされる減速の要因としても非常に有利である。
さらに、HVSは、リニア評価とDINO、SimSiam、iBOT、SimCLRなどの複数のSSLメソッド間の転送タスクにおける同様の改善で、ImageNetの0.4%から1.9%の精度改善を一貫して達成している。
関連論文リスト
- SegLoc: Visual Self-supervised Learning Scheme for Dense Prediction
Tasks of Security Inspection X-ray Images [4.251030047034566]
コンピュータビジョンにおける自己教師型学習は、比較的軌道に留まることができない。
本稿では,セキュリティ検査用X線画像の高密度予測タスクを評価する。
我々のモデルは、対照的な学習の最も難しい欠点の1つ、すなわち、クエリの埋め込みの偽陰性なペアに対処することに成功しました。
論文 参考訳(メタデータ) (2023-10-12T15:42:17Z) - Hallucination Improves the Performance of Unsupervised Visual
Representation Learning [9.504503675097137]
本研究では,さらにコントラストを増すために,効率よく追加の正のサンプルを生成できるHalucinatorを提案する。
Hallucinatorは識別可能で、機能領域で新しいデータを生成する。
顕著なことに,提案した幻覚器が様々な対照的な学習モデルによく当てはまることを実証的に証明する。
論文 参考訳(メタデータ) (2023-07-22T21:15:56Z) - Black Box Few-Shot Adaptation for Vision-Language models [41.49584259596654]
ヴィジュアル・ランゲージ(V-L)モデルは、視覚的・言語的モダリティを整合させるために、対照的な学習で訓練された。
本稿では,プリコンパイルされた画像とテキストの特徴に基づいて,V-L小ショット適応のためのブラックボックス手法について述べる。
対象領域におけるV-L再アライメントに対する単純な線形アプローチである線形特徴アライメント(LFA)を提案する。
論文 参考訳(メタデータ) (2023-04-04T12:42:29Z) - Dynamic Contrastive Distillation for Image-Text Retrieval [90.05345397400144]
画像テキスト検索モデルを圧縮するための新しいプラグイン動的コントラスト蒸留(DCD)フレームワークを提案する。
提案したDCD戦略を2つの最先端の視覚言語事前訓練モデル、すなわち ViLT と METER に適用することに成功している。
MS-COCOとFlickr30Kベンチマークの実験では、DCDフレームワークの有効性と効率が示されている。
論文 参考訳(メタデータ) (2022-07-04T14:08:59Z) - MSR: Making Self-supervised learning Robust to Aggressive Augmentations [98.6457801252358]
本稿では,弱いペアと攻撃的なペアの役割のバランスをとることによって,意味変化の影響に対処する新たなSSLパラダイムを提案する。
我々は,BYOLを2.5%改善したResNet-50を200エポックとして,ImageNet-1Kで73.1%のTop-1精度を実現したことを示す。
論文 参考訳(メタデータ) (2022-06-04T14:27:29Z) - Offline Visual Representation Learning for Embodied Navigation [50.442660137987275]
自己教師付き学習による視覚表現のオフライン事前学習(SSL)
長期学習スケジュール下での画像強調による特定のタスクにおけるビジュモータ表現のオンライン微調整
論文 参考訳(メタデータ) (2022-04-27T23:22:43Z) - Self-supervised Pre-training with Hard Examples Improves Visual
Representations [110.23337264762512]
自己教師付き事前学習(ssp)は、ランダムな画像変換を用いて視覚表現学習のためのトレーニングデータを生成する。
まず,既存のSSPメソッドを擬似ラベル予測学習として統合するモデリングフレームワークを提案する。
そこで本研究では,疑似ラベルの予測が難しい学習例をランダムな画像変換で生成するデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2020-12-25T02:44:22Z) - Unsupervised Learning of Visual Features by Contrasting Cluster
Assignments [57.33699905852397]
ペア比較の計算を必要とせず,コントラスト的手法を生かしたオンラインアルゴリズムSwaVを提案する。
本手法では,クラスタ割り当て間の一貫性を保ちながら,同時にデータをクラスタ化する。
我々の方法は大規模で小さなバッチで訓練でき、無制限のデータにスケールできる。
論文 参考訳(メタデータ) (2020-06-17T14:00:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。