論文の概要: The Geometry of Self-supervised Learning Models and its Impact on
Transfer Learning
- arxiv url: http://arxiv.org/abs/2209.08622v1
- Date: Sun, 18 Sep 2022 18:15:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 19:05:43.028425
- Title: The Geometry of Self-supervised Learning Models and its Impact on
Transfer Learning
- Title(参考訳): 自己教師付き学習モデルの幾何学と転校学習への影響
- Authors: Romain Cosentino, Sarath Shekkizhar, Mahdi Soltanolkotabi, Salman
Avestimehr, Antonio Ortega
- Abstract要約: 自己教師型学習(SSL)はコンピュータビジョンにおいて望ましいパラダイムとして登場した。
本稿では,各特徴空間内の局所的近傍を用いて異なるSSLモデルを分析するためのデータ駆動幾何学的手法を提案する。
- 参考スコア(独自算出の注目度): 62.601681746034956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning (SSL) has emerged as a desirable paradigm in
computer vision due to the inability of supervised models to learn
representations that can generalize in domains with limited labels. The recent
popularity of SSL has led to the development of several models that make use of
diverse training strategies, architectures, and data augmentation policies with
no existing unified framework to study or assess their effectiveness in
transfer learning. We propose a data-driven geometric strategy to analyze
different SSL models using local neighborhoods in the feature space induced by
each. Unlike existing approaches that consider mathematical approximations of
the parameters, individual components, or optimization landscape, our work aims
to explore the geometric properties of the representation manifolds learned by
SSL models. Our proposed manifold graph metrics (MGMs) provide insights into
the geometric similarities and differences between available SSL models, their
invariances with respect to specific augmentations, and their performances on
transfer learning tasks. Our key findings are two fold: (i) contrary to popular
belief, the geometry of SSL models is not tied to its training paradigm
(contrastive, non-contrastive, and cluster-based); (ii) we can predict the
transfer learning capability for a specific model based on the geometric
properties of its semantic and augmentation manifolds.
- Abstract(参考訳): 自己教師付き学習(SSL)は、限られたラベルを持つドメインで一般化可能な表現を学習できないために、コンピュータビジョンにおいて望ましいパラダイムとして登場した。
SSLの最近の人気は、トランスファーラーニングにおけるその効果を研究または評価するための既存の統一されたフレームワークなしで、多様なトレーニング戦略、アーキテクチャ、データ拡張ポリシーを利用するいくつかのモデルの開発につながった。
本稿では,各特徴空間の局所的近傍を用いて異なるsslモデルの解析を行うためのデータ駆動幾何戦略を提案する。
パラメータや個々のコンポーネント、最適化のランドスケープの数学的近似を考える既存のアプローチとは異なり、本研究はsslモデルによって学習された表現多様体の幾何学的性質を探求することを目的としている。
提案する多様体グラフメトリクス(mgms)は、利用可能なsslモデル間の幾何学的類似性と差異、特定の拡張に関する不変性、転送学習タスクにおけるそれらのパフォーマンスに関する洞察を提供する。
重要な発見は2つあります
(i)一般的な信念に反して、SSLモデルの幾何学はトレーニングパラダイム(対照的、非競合、クラスタベース)とは無関係である。
(ii)その意味的および拡張的多様体の幾何学的性質に基づいて,特定のモデルの伝達学習能力を予測することができる。
関連論文リスト
- Fine-tuning large language models for domain adaptation: Exploration of training strategies, scaling, model merging and synergistic capabilities [4.389938747401259]
本研究は、材料科学や工学などの分野における大規模言語モデル(LLM)に対する微調整戦略の効果について考察する。
複数の微調整モデルの融合は、親モデルの個々の貢献を超越した能力の出現につながる可能性がある。
論文 参考訳(メタデータ) (2024-09-05T11:49:53Z) - Examining Changes in Internal Representations of Continual Learning Models Through Tensor Decomposition [5.01338577379149]
連続学習(CL)は、逐次学習にまたがる過去の知識の統合を目的としたいくつかの手法の開発を加速させた。
CLモデルのための表現に基づく新しい評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-06T07:52:44Z) - Can Generative Models Improve Self-Supervised Representation Learning? [0.7999703756441756]
本稿では、生成モデルを利用して意味論的に一貫した画像拡張を生成することによって、自己指導型学習パラダイムを充実させる新しいフレームワークを提案する。
その結果,下流タスクにおいて,学習した視覚表現の精度を最大10%向上させることができた。
論文 参考訳(メタデータ) (2024-03-09T17:17:07Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Improving Self-supervised Molecular Representation Learning using
Persistent Homology [6.263470141349622]
自己教師付き学習(SSL)は、分子表現学習に大きな可能性を秘めている。
本稿では,複数のスケールにまたがるデータのトポロジ的特徴をモデル化するための数学的ツールである永続ホモロジー(PH)に基づくSSLについて検討する。
論文 参考訳(メタデータ) (2023-11-29T02:58:30Z) - Enhancing Representations through Heterogeneous Self-Supervised Learning [61.40674648939691]
本稿では,HSSL(Heterogeneous Self-Supervised Learning)を提案する。
HSSLは、構造的変化を伴わない表現学習方式で、ベースモデルに新しい特徴を付与する。
HSSLは、様々な自己教師型メソッドと互換性があり、様々な下流タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-08T10:44:05Z) - UniDiff: Advancing Vision-Language Models with Generative and
Discriminative Learning [86.91893533388628]
本稿では、画像テキストコントラスト学習(ITC)、テキスト条件付き画像合成学習(IS)、相互意味整合性モデリング(RSC)を統合した統合マルチモーダルモデルUniDiffを提案する。
UniDiffはマルチモーダル理解と生成タスクの両方において汎用性を示す。
論文 参考訳(メタデータ) (2023-06-01T15:39:38Z) - Weak Augmentation Guided Relational Self-Supervised Learning [80.0680103295137]
本稿では、異なるインスタンス間の関係をモデル化して表現を学習する新しいリレーショナル自己教師型学習(ReSSL)フレームワークを提案する。
提案手法では,異なるインスタンス間でのペアワイズ類似度の分布を,テクトitrelationmetricとして高めている。
実験の結果,提案したReSSLは,ネットワークアーキテクチャの異なる最先端手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-03-16T16:14:19Z) - Self-Supervised Learning of Graph Neural Networks: A Unified Review [50.71341657322391]
ラベルなしサンプルを多用する新たなパラダイムとして,自己教師型学習が登場している。
SSLを用いたグラフニューラルネットワーク(GNNs)のトレーニング方法の統一レビューを提供します。
gnnに対するssl手法の処理は,様々な手法の類似性と相違に光を当て,新しい手法やアルゴリズムの開発段階を定めている。
論文 参考訳(メタデータ) (2021-02-22T03:43:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。