論文の概要: Do Self-Supervised and Supervised Methods Learn Similar Visual
Representations?
- arxiv url: http://arxiv.org/abs/2110.00528v1
- Date: Fri, 1 Oct 2021 16:51:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 14:48:08.955119
- Title: Do Self-Supervised and Supervised Methods Learn Similar Visual
Representations?
- Title(参考訳): 自己教師と教師付きメソッドは類似した視覚的表現を学ぶか?
- Authors: Tom George Grigg, Dan Busbridge, Jason Ramapuram, Russ Webb
- Abstract要約: コンストラシティブな自己教師付きアルゴリズム(SimCLR)と、共通アーキテクチャにおける単純な画像データの監視を比較した。
両手法は相似的な方法で類似の中間表現を学習し,最後の数層で表現が急速に発散することがわかった。
我々の研究は特に、学習した中間表現の重要性を強調し、補助的なタスク設計において重要な疑問を提起する。
- 参考スコア(独自算出の注目度): 3.1594831736896025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the success of a number of recent techniques for visual
self-supervised deep learning, there remains limited investigation into the
representations that are ultimately learned. By using recent advances in
comparing neural representations, we explore in this direction by comparing a
constrastive self-supervised algorithm (SimCLR) to supervision for simple image
data in a common architecture. We find that the methods learn similar
intermediate representations through dissimilar means, and that the
representations diverge rapidly in the final few layers. We investigate this
divergence, finding that it is caused by these layers strongly fitting to the
distinct learning objectives. We also find that SimCLR's objective implicitly
fits the supervised objective in intermediate layers, but that the reverse is
not true. Our work particularly highlights the importance of the learned
intermediate representations, and raises important questions for auxiliary task
design.
- Abstract(参考訳): 近年の視覚自己監視深層学習技術の成功にもかかわらず、最終的には学習される表現に関する調査は限られている。
ニューラル表現の比較における最近の進歩を利用して、コンストラシティブな自己教師付きアルゴリズム(SimCLR)を比較し、共通アーキテクチャにおける単純な画像データの監視を行う。
両手法は相似的な方法で類似の中間表現を学習し,最後の数層で表現が急速に発散することがわかった。
本研究は,これらの層が学習目的に強く適合していることから,この相違について検討する。
また、SimCLRの目的が中間層で監督対象に暗黙的に適合していることが分かるが、その逆は真ではない。
本研究は,学習中の中間表現の重要性を強調し,補助タスク設計の重要な疑問を提起する。
関連論文リスト
- A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Semi-supervised learning made simple with self-supervised clustering [65.98152950607707]
自己教師付き学習モデルは、人間のアノテーションを必要とせずにリッチな視覚表現を学習することが示されている。
本稿では,クラスタリングに基づく自己教師付き手法を半教師付き学習者へと変換する,概念的に単純だが経験的に強力な手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T01:09:18Z) - From Patches to Objects: Exploiting Spatial Reasoning for Better Visual
Representations [2.363388546004777]
本研究では,空間的推論に基づく新しい予備的事前学習手法を提案する。
本提案手法は,識別的自己管理手法の補助的タスクとして空間推論を導入することで,より柔軟なコントラスト学習の定式化を実現する。
論文 参考訳(メタデータ) (2023-05-21T07:46:46Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Co$^2$L: Contrastive Continual Learning [69.46643497220586]
近年の自己教師型学習のブレークスルーは、このようなアルゴリズムが視覚的な表現を学習し、見えないタスクにもっとうまく移行できることを示している。
本稿では、連続的な学習と伝達可能な表現の維持に焦点を当てたリハーサルに基づく連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-28T06:14:38Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Heterogeneous Contrastive Learning: Encoding Spatial Information for
Compact Visual Representations [183.03278932562438]
本稿では,エンコーディング段階に空間情報を加えることで,対照的な目的と強いデータ拡張操作の間の学習の不整合を緩和する効果的な手法を提案する。
提案手法は,視覚表現の効率を向上し,自己指導型視覚表現学習の今後の研究を刺激する鍵となるメッセージを提供する。
論文 参考訳(メタデータ) (2020-11-19T16:26:25Z) - A Survey on Contrastive Self-supervised Learning [0.0]
自己教師付き学習は、大規模なデータセットのアノテートコストを回避する能力によって人気を集めている。
コントラスト学習は近年,コンピュータビジョン,自然言語処理(NLP)などの分野において,自己指導型学習手法の主流となっている。
本稿では, コントラスト的アプローチに従う自己教師型手法について, 広範囲にわたるレビューを行う。
論文 参考訳(メタデータ) (2020-10-31T21:05:04Z) - Similarity Analysis of Self-Supervised Speech Representations [44.33287205296597]
既存の類似度尺度を用いて、異なる自己監督表現間の類似度を定量化する。
また,モデルの事前学習損失と学習表現に含まれる特定の音声情報の量との相関について検討するために,探索タスクを設計する。
論文 参考訳(メタデータ) (2020-10-22T07:02:21Z) - Anatomy of Catastrophic Forgetting: Hidden Representations and Task
Semantics [24.57617154267565]
ニューラルネットワークモデルにおいて,忘れることが表現に与える影響について検討する。
深い層が忘れる原因であることに気付きました。
また,CIFAR-100をベースとした,現実的な入力分布シフトを近似するタスクも導入する。
論文 参考訳(メタデータ) (2020-07-14T23:31:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。