論文の概要: Variance-Covariance Regularization Improves Representation Learning
- arxiv url: http://arxiv.org/abs/2306.13292v2
- Date: Thu, 22 Feb 2024 21:07:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 18:16:24.041791
- Title: Variance-Covariance Regularization Improves Representation Learning
- Title(参考訳): 変数共分散規則化は表現学習を改善する
- Authors: Jiachen Zhu, Katrina Evtimova, Yubei Chen, Ravid Shwartz-Ziv, Yann
LeCun
- Abstract要約: 我々は,分散共分散正規化(VCReg)を導入して,自己教師型学習規則化手法を教師型学習コンテキストに適用する。
我々は、VCRegが画像やビデオの転送学習を大幅に強化し、多数のタスクやデータセットで最先端のパフォーマンスを達成することを実証した。
要約すると、VCRegは、転送学習を大幅に進歩させ、勾配飢餓、神経崩壊、特徴伝達可能性の間の接続を強調する、普遍的に適用可能な正規化フレームワークを提供する。
- 参考スコア(独自算出の注目度): 28.341622247252705
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Transfer learning plays a key role in advancing machine learning models, yet
conventional supervised pretraining often undermines feature transferability by
prioritizing features that minimize the pretraining loss. In this work, we
adapt a self-supervised learning regularization technique from the VICReg
method to supervised learning contexts, introducing Variance-Covariance
Regularization (VCReg). This adaptation encourages the network to learn
high-variance, low-covariance representations, promoting learning more diverse
features. We outline best practices for an efficient implementation of our
framework, including applying it to the intermediate representations. Through
extensive empirical evaluation, we demonstrate that our method significantly
enhances transfer learning for images and videos, achieving state-of-the-art
performance across numerous tasks and datasets. VCReg also improves performance
in scenarios like long-tail learning and hierarchical classification.
Additionally, we show its effectiveness may stem from its success in addressing
challenges like gradient starvation and neural collapse. In summary, VCReg
offers a universally applicable regularization framework that significantly
advances transfer learning and highlights the connection between gradient
starvation, neural collapse, and feature transferability.
- Abstract(参考訳): 伝達学習は機械学習モデルの進歩において重要な役割を担っているが、従来の教師付き事前学習は、事前学習損失を最小限に抑える特徴を優先順位付けすることで、機能の伝達性を損なうことが多い。
本研究では,VICReg法による自己教師付き学習規則化手法を教師付き学習コンテキストに適用し,可変共分散規則化(VCReg)を導入する。
この適応により、ネットワークは高分散、低分散表現を学習し、より多様な特徴の学習を促進する。
我々は、中間表現に適用することを含め、フレームワークの効率的な実装のためのベストプラクティスを概説する。
本手法は,画像や映像の転送学習を著しく向上させ,多数のタスクやデータセットにまたがる最先端のパフォーマンスを実現する。
VCRegは、ロングテール学習や階層分類といったシナリオのパフォーマンスも改善する。
さらに,その効果は,勾配飢餓や神経崩壊といった課題への対処の成功に起因している可能性がある。
要約すると、VCRegは、転送学習を大幅に進歩させ、勾配飢餓、神経崩壊、特徴伝達可能性の間の接続を強調する、普遍的に適用可能な正規化フレームワークを提供する。
関連論文リスト
- Enhancing Robustness of Vision-Language Models through Orthogonality Learning and Self-Regularization [77.62516752323207]
そこで本研究では,事前訓練した重みを効率よく微調整する直交微調整法を導入し,頑健さと一般化の強化を実現した。
自己正規化戦略は、OrthSRと呼ばれるVLMのゼロショット一般化の観点から安定性を維持するためにさらに活用される。
筆者らはCLIPとCoOpを再検討し,少数の画像のクラスフィシエーションシナリオにおけるモデルの改善を効果的に行う。
論文 参考訳(メタデータ) (2024-07-11T10:35:53Z) - Normalization and effective learning rates in reinforcement learning [52.59508428613934]
正規化層は近年,深層強化学習と連続学習文学においてルネッサンスを経験している。
正規化は、ネットワークパラメータのノルムにおける成長と効果的な学習速度における崩壊の間の等価性という、微妙だが重要な副作用をもたらすことを示す。
そこで本研究では,正規化・プロジェクトと呼ぶ単純な再パラメータ化により,学習率を明示的にする手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:58:01Z) - Contrastive-Adversarial and Diffusion: Exploring pre-training and fine-tuning strategies for sulcal identification [3.0398616939692777]
対人学習、コントラスト学習、拡散認知学習、通常の再構成学習といった技術が標準となっている。
この研究は、ニューラルネットワークの学習プロセスを強化するために、事前学習技術と微調整戦略の利点を解明することを目的としている。
論文 参考訳(メタデータ) (2024-05-29T15:44:51Z) - Continual Learners are Incremental Model Generalizers [70.34479702177988]
本稿では,継続学習モデル(CL)が事前学習者に与える影響を幅広く研究する。
その結果, 微調整性能が著しく低下することなく, 表現の伝達品質が徐々に向上することがわかった。
本稿では,下流タスクの解法において,リッチなタスクジェネリック表現を保存できる新しい微調整方式GLobal Attention Discretization(GLAD)を提案する。
論文 参考訳(メタデータ) (2023-06-21T05:26:28Z) - ArCL: Enhancing Contrastive Learning with Augmentation-Robust
Representations [30.745749133759304]
我々は,自己教師付きコントラスト学習の伝達可能性を分析する理論的枠組みを開発する。
対照的な学習は、その伝達可能性を制限するような、ドメイン不変の機能を学ぶのに失敗することを示す。
これらの理論的知見に基づき、Augmentation-robust Contrastive Learning (ArCL) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T09:26:20Z) - Learning State Representations via Retracing in Reinforcement Learning [25.755855290244103]
リトラシングによる学習は、強化学習タスクの状態表現を学習するための自己指導型アプローチである。
本稿では,Retracingによる学習の具体的なインスタンス化であるCycle-Consistency World Model (CCWM)を紹介する。
CCWMは, 試料効率と性能の両面から, 最先端の性能を実現していることを示す。
論文 参考訳(メタデータ) (2021-11-24T16:19:59Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z) - Uniform Priors for Data-Efficient Transfer [65.086680950871]
もっとも移動可能な特徴は埋め込み空間において高い均一性を有することを示す。
我々は、未確認のタスクやデータへの適応を容易にする能力の正規化を評価する。
論文 参考訳(メタデータ) (2020-06-30T04:39:36Z) - Guided Variational Autoencoder for Disentanglement Learning [79.02010588207416]
本稿では,潜在表現非絡み合い学習を行うことで,制御可能な生成モデルを学習できるアルゴリズム,Guided-VAEを提案する。
我々は、ガイド-VAEにおける教師なし戦略と教師なし戦略を設計し、バニラVAE上でのモデリングと制御能力の強化を観察する。
論文 参考訳(メタデータ) (2020-04-02T20:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。