論文の概要: VIbCReg: Variance-Invariance-better-Covariance Regularization for
Self-Supervised Learning on Time Series
- arxiv url: http://arxiv.org/abs/2109.00783v1
- Date: Thu, 2 Sep 2021 08:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-03 14:11:47.227586
- Title: VIbCReg: Variance-Invariance-better-Covariance Regularization for
Self-Supervised Learning on Time Series
- Title(参考訳): VIbCReg: 時系列における自己教師付き学習のための変数不変・ベタ共分散規則化
- Authors: Daesoo Lee (1), Erlend Aune (1 and 2) ((1) Norwegian University of
Science and Technology, (2) BI Norwegian Business School)
- Abstract要約: 我々は、有用な表現に収束するために、特別な訓練ループに依存しない損失関数を導入したVICRegの論文を改善した。
UCR時系列分類アーカイブとTB-XL ECGデータセットのサブセットにおける線形評価と微調整評価に優れた性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning for image representations has recently had many
breakthroughs with respect to linear evaluation and fine-tuning evaluation.
These approaches rely on both cleverly crafted loss functions and training
setups to avoid the feature collapse problem. In this paper, we improve on the
recently proposed VICReg paper, which introduced a loss function that does not
rely on specialized training loops to converge to useful representations. Our
method improves on a covariance term proposed in VICReg, and in addition we
augment the head of the architecture by an IterNorm layer that greatly
accelerates convergence of the model. Our model achieves superior performance
on linear evaluation and fine-tuning evaluation on a subset of the UCR time
series classification archive and the PTB-XL ECG dataset.
- Abstract(参考訳): 画像表現のための自己教師型学習は近年,線形評価や微調整評価に関して多くのブレークスルーを経験している。
これらのアプローチは、機能崩壊問題を避けるために巧妙に作られた損失関数とトレーニングセットアップの両方に依存している。
本稿では,最近提案されたVICReg論文を改良し,有用な表現に収束するために,特別な学習ループに依存しない損失関数を導入した。
提案手法は,VICReg で提案した共分散項を改良し,モデルの収束を大幅に加速する IterNorm 層によりアーキテクチャのヘッドを増強する。
本モデルは,UCR時系列分類アーカイブとTB-XL ECGデータセットのサブセットに対して,線形評価と微調整評価に優れる。
関連論文リスト
- Locality Alignment Improves Vision-Language Models [55.275235524659905]
近年では視覚言語モデル (VLM) が普及しているが、その多くが基本的な空間推論の誤りに悩まされている。
局所性アライメント(Locality alignment)と呼ばれる,視覚障害者のための新しい学習段階を提案する。
局所性に整合したバックボーンは、様々なベンチマークでパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2024-10-14T21:01:01Z) - Efficient infusion of self-supervised representations in Automatic Speech Recognition [1.2972104025246092]
Wav2vecやHuBERTのような自己教師付き学習(SSL)モデルは、音声関連のタスクに対して最先端の結果をもたらす。
本稿では,SSLモデルからASRアーキテクチャへの表現を効率的に組み込むために,フレームワイズ付加と(2)クロスアテンション機構を用いる2つの簡単なアプローチを提案する。
提案手法により,Librispeech と Tedlium のデータセットにおいて,より高速なトレーニングが可能となり,大幅な性能向上が期待できる。
論文 参考訳(メタデータ) (2024-04-19T05:01:12Z) - What Constitutes Good Contrastive Learning in Time-Series Forecasting? [10.44543726728613]
自己教師付きコントラスト学習(SSCL)は、様々な領域にわたる表現学習において顕著に改善されている。
本稿では,様々なSSCLアルゴリズムの有効性,学習戦略,モデルアーキテクチャ,それらの相互作用を包括的に分析することを目的とする。
平均二乗誤差(MSE)損失とSSCLを用いたトランスフォーマーモデルのエンドツーエンドトレーニングが時系列予測において最も効果的な手法として現れることを示す。
論文 参考訳(メタデータ) (2023-06-21T08:05:05Z) - Understanding and Improving the Role of Projection Head in
Self-Supervised Learning [77.59320917894043]
自己教師付き学習(SSL)は、人間のラベル付きデータアノテーションにアクセスせずに有用な特徴表現を作成することを目的としている。
現在の対照的な学習アプローチは、InfoNCEの目的を最適化するために、あるバックボーンネットワークの端にパラメータ化されたプロジェクションヘッドを付加する。
学習可能なプロジェクションヘッドが、トレーニング後にそれを破棄する場合、なぜ必要となるのか?
論文 参考訳(メタデータ) (2022-12-22T05:42:54Z) - Weighted Ensemble Self-Supervised Learning [67.24482854208783]
組み立ては、モデルパフォーマンスを高めるための強力なテクニックであることが証明されている。
我々は,データ依存型重み付きクロスエントロピー損失を許容するフレームワークを開発した。
提案手法は、ImageNet-1K上での複数の評価指標において、両者に優れる。
論文 参考訳(メタデータ) (2022-11-18T02:00:17Z) - Effective Self-supervised Pre-training on Low-compute Networks without
Distillation [6.530011859253459]
報告された自己教師型学習のパフォーマンスは、標準的な教師付き事前学習よりも大きなマージンで遅れている。
以前の作業のほとんどは、低スループットネットワークのキャパシティボトルネックによるパフォーマンスの低下を理由としている。
我々は、現実的な制約の原因となる有害要因と、それらが自己監督型低コンプット設定に固有のものであるかどうかについて、より詳しく検討する。
論文 参考訳(メタデータ) (2022-10-06T10:38:07Z) - Pretraining the Vision Transformer using self-supervised methods for
vision based Deep Reinforcement Learning [0.0]
いくつかの最先端の自己教師型手法を用いて視覚変換器の事前学習を行い、学習した表現の質を評価する。
その結果,すべての手法が有用な表現を学習し,表現の崩壊を避けるのに有効であることが示唆された。
時間順序検証タスクで事前訓練されたエンコーダは、すべての実験で最高の結果を示す。
論文 参考訳(メタデータ) (2022-09-22T10:18:59Z) - Adapting Self-Supervised Vision Transformers by Probing
Attention-Conditioned Masking Consistency [7.940705941237998]
自己教師型 ViT のための単純な2段階適応アルゴリズムである PACMAC を提案する。
私たちの単純なアプローチは、競合するメソッドよりも一貫したパフォーマンス向上につながります。
論文 参考訳(メタデータ) (2022-06-16T14:46:10Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Unsupervised Monocular Depth Learning with Integrated Intrinsics and
Spatio-Temporal Constraints [61.46323213702369]
本研究は,大規模深度マップとエゴモーションを予測可能な教師なし学習フレームワークを提案する。
本結果は,KITTI運転データセットの複数シーケンスにおける現在の最先端技術と比較して,高い性能を示す。
論文 参考訳(メタデータ) (2020-11-02T22:26:58Z) - Learning Monocular Visual Odometry via Self-Supervised Long-Term
Modeling [106.15327903038705]
単眼視覚計測(VO)はフレーム・ツー・フレームのポーズ推定時にエラーの蓄積に苦しむ。
本稿では,より長いシーケンスの一貫性を考慮したVOの自己教師付き学習手法を提案する。
我々は、幾何VOのループ閉鎖モジュールを模倣したサイクル整合損失を含む、純粋に自己監督的な損失でネットワークを訓練する。
論文 参考訳(メタデータ) (2020-07-21T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。