論文の概要: Brief Introduction to Contrastive Learning Pretext Tasks for Visual
Representation
- arxiv url: http://arxiv.org/abs/2210.03163v1
- Date: Thu, 6 Oct 2022 18:54:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 14:43:45.710205
- Title: Brief Introduction to Contrastive Learning Pretext Tasks for Visual
Representation
- Title(参考訳): 視覚表現のためのコントラスト学習課題の簡単な紹介
- Authors: Zhenyuan Lu
- Abstract要約: 教師なし学習手法のサブセットであるコントラスト学習を導入する。
対照的な学習の目的は、互いに近くにある同じサンプルから強化されたサンプルを埋め込んで、そうでないサンプルを押し下げることである。
我々は、最近公開されたコントラスト学習の戦略をいくつか提示し、視覚表現のためのプレテキストタスクに焦点を当てている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To improve performance in visual feature representation from photos or videos
for practical applications, we generally require large-scale human-annotated
labeled data while training deep neural networks. However, the cost of
gathering and annotating human-annotated labeled data is expensive. Given that
there is a lot of unlabeled data in the actual world, it is possible to
introduce self-defined pseudo labels as supervisions to prevent this issue.
Self-supervised learning, specifically contrastive learning, is a subset of
unsupervised learning methods that has grown popular in computer vision,
natural language processing, and other domains. The purpose of contrastive
learning is to embed augmented samples from the same sample near to each other
while pushing away those that are not. In the following sections, we will
introduce the regular formulation among different learnings. In the next
sections, we will discuss the regular formulation of various learnings.
Furthermore, we offer some strategies from contrastive learning that have
recently been published and are focused on pretext tasks for visual
representation.
- Abstract(参考訳): 写真やビデオからの視覚的特徴表現のパフォーマンスを向上させるために,深層ニューラルネットワークをトレーニングしながら,大規模なラベル付きデータが必要となる。
しかしながら、人間によるラベル付きデータの収集と注釈付けのコストは高価である。
実世界ではラベルのないデータが多数存在することを考えると、この問題を防ぐために自己定義の擬似ラベルを監督として導入することが可能である。
自己教師あり学習(英: self-supervised learning)は、コンピュータビジョン、自然言語処理、その他の領域で普及した教師なし学習法のサブセットである。
対照的な学習の目的は、同じサンプルから抽出した拡張サンプルを互いに埋め込み、そうでないサンプルを押し出すことである。
以下の節では、異なる学習の中で規則的な定式化を導入する。
次の節では、様々な学習の定式化について論じる。
さらに,視覚表現のためのプリテキストタスクに着目した,最近公開されたコントラスト学習からの戦略も提示する。
関連論文リスト
- Exploiting Contextual Uncertainty of Visual Data for Efficient Training of Deep Models [0.65268245109828]
アクティブラーニングCDALにおける文脈多様性の概念を導入する。
モデルバイアスを低減するために、文脈的に公正なデータをキュレートするデータ修復アルゴリズムを提案する。
我々は、野生生物カメラトラップ画像の画像検索システムと、質の悪い農村道路に対する信頼性の高い警告システムの開発に取り組んでいる。
論文 参考訳(メタデータ) (2024-11-04T09:43:33Z) - Premonition: Using Generative Models to Preempt Future Data Changes in
Continual Learning [63.850451635362425]
継続的な学習には、データ分散の継続的な変化に対応するためのモデルが必要である。
本稿では,大規模言語モデルと画像生成モデルの組み合わせが有用であることを示す。
トレーニング済みネットワークのバックボーンは、下流の連続学習問題に有用な表現を学習できることがわかった。
論文 参考訳(メタデータ) (2024-03-12T06:29:54Z) - Visual Grounding Helps Learn Word Meanings in Low-Data Regimes [47.7950860342515]
現代のニューラル言語モデル(LM)は、人間の文の生成と理解をモデル化するための強力なツールである。
しかし、これらの結果を得るためには、LMは明らかに非人間的な方法で訓練されなければならない。
より自然主義的に訓練されたモデルは、より人間らしい言語学習を示すのか?
本稿では,言語習得における重要なサブタスクである単語学習の文脈において,この問題を考察する。
論文 参考訳(メタデータ) (2023-10-20T03:33:36Z) - CAPro: Webly Supervised Learning with Cross-Modality Aligned Prototypes [93.71909293023663]
クロスモダリティ・アライテッド・プロトタイプ(CAPro)は、視覚表現を正しい意味論で学習する統合コントラスト学習フレームワークである。
CAProは、新しい最先端のパフォーマンスを実現し、オープンセット認識に対する堅牢性を示す。
論文 参考訳(メタデータ) (2023-10-15T07:20:22Z) - Speech representation learning: Learning bidirectional encoders with
single-view, multi-view, and multi-task methods [7.1345443932276424]
この論文は、時間や空間によるシーケンスデータの表現学習に焦点を当てている。
学習した表現を用いて下流のシーケンス予測タスクを改善することを目的としている。
論文 参考訳(メタデータ) (2023-07-25T20:38:55Z) - Playful Interactions for Representation Learning [82.59215739257104]
本稿では,下流タスクの視覚的表現を学習するために,遊び心のあるインタラクションを自己指導的に利用することを提案する。
19の多様な環境で2時間の遊び心のあるデータを収集し、自己予測学習を用いて視覚的表現を抽出する。
我々の表現は、標準的な行動クローニングよりも一般化され、必要なデモの半数しか必要とせず、同様の性能を達成できる。
論文 参考訳(メタデータ) (2021-07-19T17:54:48Z) - A Survey on Contrastive Self-supervised Learning [0.0]
自己教師付き学習は、大規模なデータセットのアノテートコストを回避する能力によって人気を集めている。
コントラスト学習は近年,コンピュータビジョン,自然言語処理(NLP)などの分野において,自己指導型学習手法の主流となっている。
本稿では, コントラスト的アプローチに従う自己教師型手法について, 広範囲にわたるレビューを行う。
論文 参考訳(メタデータ) (2020-10-31T21:05:04Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - ALICE: Active Learning with Contrastive Natural Language Explanations [69.03658685761538]
本研究では,学習におけるデータ効率を向上させるために,AlICEを用いたアクティブラーニングを提案する。
ALICEは、まずアクティブラーニングを使用して、最も情報に富んだラベルクラスを選択し、対照的な自然言語の説明を引き出す。
意味的に抽出された知識を用いて、これらの説明から知識を抽出する。
論文 参考訳(メタデータ) (2020-09-22T01:02:07Z) - Laplacian Denoising Autoencoder [114.21219514831343]
本稿では,新しいタイプの自動符号化器を用いてデータ表現を学習することを提案する。
勾配領域における潜伏クリーンデータを破損させて雑音入力データを生成する。
いくつかのビジュアルベンチマークの実験では、提案されたアプローチでより良い表現が学べることが示されている。
論文 参考訳(メタデータ) (2020-03-30T16:52:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。