論文の概要: Deciphering the Projection Head: Representation Evaluation
Self-supervised Learning
- arxiv url: http://arxiv.org/abs/2301.12189v1
- Date: Sat, 28 Jan 2023 13:13:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 18:27:48.965880
- Title: Deciphering the Projection Head: Representation Evaluation
Self-supervised Learning
- Title(参考訳): 投影頭部の解読:自己指導型学習の表現評価
- Authors: Jiajun Ma, Tianyang Hu, Wenjia Wang
- Abstract要約: 自己教師付き学習(SSL)は、ラベルなしで固有の特徴を学習することを目的としている。
プロジェクションヘッドは、ダウンストリームタスクのパフォーマンスを改善する上で、常に重要な役割を果たす。
本稿では,表現と投影ベクトルとのショートカット接続を構築するSSLモデルにおける表現評価設計(RED)を提案する。
- 参考スコア(独自算出の注目度): 6.375931203397043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning (SSL) aims to learn intrinsic features without
labels. Despite the diverse architectures of SSL methods, the projection head
always plays an important role in improving the performance of the downstream
task. In this work, we systematically investigate the role of the projection
head in SSL. Specifically, the projection head targets the uniformity part of
SSL, which pushes the dissimilar samples away from each other, thus enabling
the encoder to focus on extracting semantic features. Based on this
understanding, we propose a Representation Evaluation Design (RED) in SSL
models in which a shortcut connection between the representation and the
projection vectors is built. Extensive experiments with different
architectures, including SimCLR, MoCo-V2, and SimSiam, on various datasets,
demonstrate that the representation evaluation design can consistently improve
the baseline models in the downstream tasks. The learned representation from
the RED-SSL models shows superior robustness to unseen augmentations and
out-of-distribution data.
- Abstract(参考訳): self-supervised learning (ssl) はラベルなしで本質的な特徴を学ぶことを目的としている。
SSLメソッドの多様なアーキテクチャにもかかわらず、プロジェクションヘッドは常に下流タスクのパフォーマンス向上に重要な役割を果たす。
本研究では,SSLにおけるプロジェクションヘッドの役割を系統的に検討する。
具体的には、プロジェクションヘッドはSSLの均一部分をターゲットにしており、異なるサンプルを互いに切り離して、エンコーダがセマンティックな特徴の抽出に集中できるようにする。
この理解に基づいて、表現と投影ベクトルの間のショートカット接続を構築するSSLモデルにおける表現評価設計(RED)を提案する。
SimCLR、MoCo-V2、SimSiamといったさまざまなアーキテクチャによる大規模な実験は、表現評価設計が下流タスクのベースラインモデルを一貫して改善できることを実証している。
red-sslモデルから得られた学習された表現は、見えない拡張や分散データに対して優れた堅牢性を示している。
関連論文リスト
- A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Enhancing Representations through Heterogeneous Self-Supervised Learning [61.40674648939691]
本稿では,HSSL(Heterogeneous Self-Supervised Learning)を提案する。
HSSLは、構造的変化を伴わない表現学習方式で、ベースモデルに新しい特徴を付与する。
HSSLは、様々な自己教師型メソッドと互換性があり、様々な下流タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-08T10:44:05Z) - Hierarchical Visual Primitive Experts for Compositional Zero-Shot
Learning [52.506434446439776]
合成ゼロショット学習(CZSL)は、既知のプリミティブ(属性とオブジェクト)の事前知識で構成を認識することを目的としている。
このような問題に対処するために,コンポジショントランスフォーマー(CoT)と呼ばれるシンプルでスケーラブルなフレームワークを提案する。
提案手法は,MIT-States,C-GQA,VAW-CZSLなど,いくつかのベンチマークでSoTA性能を実現する。
論文 参考訳(メタデータ) (2023-08-08T03:24:21Z) - Augmentation-aware Self-supervised Learning with Conditioned Projector [6.720605329045581]
自己教師付き学習(SSL)は、ラベルのないデータから学習するための強力な技術である。
本稿では,プロジェクタネットワークを改良し,表現空間の特徴に対する感受性を高めることを提案する。
提案手法は条件拡張型自己教師学習(CASSLE)と呼ばれ,通常の共同埋め込み型SSL手法に直接適用可能である。
論文 参考訳(メタデータ) (2023-05-31T12:24:06Z) - Reverse Engineering Self-Supervised Learning [17.720366509919167]
自己教師型学習(SSL)は機械学習の強力なツールである。
本稿ではSSL学習表現の詳細な実験的検討を行う。
論文 参考訳(メタデータ) (2023-05-24T23:15:28Z) - Explaining, Analyzing, and Probing Representations of Self-Supervised
Learning Models for Sensor-based Human Activity Recognition [2.2082422928825136]
自己教師付き学習(SSL)フレームワークは、センサベースヒューマンアクティビティ認識(HAR)に広く応用されている。
本稿では,最近のSSLフレームワークであるSimCLRとVICRegの深層表現を解析することを目的とする。
論文 参考訳(メタデータ) (2023-04-14T07:53:59Z) - Understanding and Improving the Role of Projection Head in
Self-Supervised Learning [77.59320917894043]
自己教師付き学習(SSL)は、人間のラベル付きデータアノテーションにアクセスせずに有用な特徴表現を作成することを目的としている。
現在の対照的な学習アプローチは、InfoNCEの目的を最適化するために、あるバックボーンネットワークの端にパラメータ化されたプロジェクションヘッドを付加する。
学習可能なプロジェクションヘッドが、トレーニング後にそれを破棄する場合、なぜ必要となるのか?
論文 参考訳(メタデータ) (2022-12-22T05:42:54Z) - Using Representation Expressiveness and Learnability to Evaluate
Self-Supervised Learning Methods [61.49061000562676]
本稿では,学習可能性を評価するためにCluster Learnability (CL)を導入する。
CLは、K-meansで表現をクラスタリングすることによって得られたラベルを予測するために訓練されたKNNのパフォーマンスで測定される。
CLは、他の競合する評価手法よりも分布内モデルの性能と相関することがわかった。
論文 参考訳(メタデータ) (2022-06-02T19:05:13Z) - Weak Augmentation Guided Relational Self-Supervised Learning [80.0680103295137]
本稿では、異なるインスタンス間の関係をモデル化して表現を学習する新しいリレーショナル自己教師型学習(ReSSL)フレームワークを提案する。
提案手法では,異なるインスタンス間でのペアワイズ類似度の分布を,テクトitrelationmetricとして高めている。
実験の結果,提案したReSSLは,ネットワークアーキテクチャの異なる最先端手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-03-16T16:14:19Z) - High Fidelity Visualization of What Your Self-Supervised Representation
Knows About [22.982471878833362]
本研究では,条件拡散に基づく生成モデル(RCDM)を用いて,自己教師付きモデルを用いて学習した表現を可視化する。
このモデルの生成品質は、条件付けとして使われる表現に忠実でありながら、最先端の生成モデルとどのように同等かを示す。
論文 参考訳(メタデータ) (2021-12-16T19:23:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。