論文の概要: PatchVAE: Learning Local Latent Codes for Recognition
- arxiv url: http://arxiv.org/abs/2004.03623v1
- Date: Tue, 7 Apr 2020 18:01:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 23:11:48.607958
- Title: PatchVAE: Learning Local Latent Codes for Recognition
- Title(参考訳): PatchVAE: 認識のためのローカル遅延コード学習
- Authors: Kamal Gupta, Saurabh Singh, Abhinav Shrivastava
- Abstract要約: VAEによって学習された教師なしの表現は、教師なしの学習によって認識のために学習された表現によって著しく優れています。
我々の仮説は、モデルを認識する上で有用な表現を学ぶためには、データ内の反復パターンと一貫したパターンについて学ぶことを奨励する必要がある、というものである。
実験により,本手法で学習した表現は,バニラVAEで学習した表現よりも,認識タスクにおいて優れることが示された。
- 参考スコア(独自算出の注目度): 38.82903227239025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised representation learning holds the promise of exploiting large
amounts of unlabeled data to learn general representations. A promising
technique for unsupervised learning is the framework of Variational
Auto-encoders (VAEs). However, unsupervised representations learned by VAEs are
significantly outperformed by those learned by supervised learning for
recognition. Our hypothesis is that to learn useful representations for
recognition the model needs to be encouraged to learn about repeating and
consistent patterns in data. Drawing inspiration from the mid-level
representation discovery work, we propose PatchVAE, that reasons about images
at patch level. Our key contribution is a bottleneck formulation that
encourages mid-level style representations in the VAE framework. Our
experiments demonstrate that representations learned by our method perform much
better on the recognition tasks compared to those learned by vanilla VAEs.
- Abstract(参考訳): 教師なし表現学習は、大量のラベルのないデータを利用して一般的な表現を学ぶという約束を持っている。
教師なし学習のための有望な手法は変分オートエンコーダ(vaes)の枠組みである。
しかしながら、VAEが学習した教師なし表現は、教師付き学習によって認識するために学習された表現によって著しく優れる。
私たちの仮説は、モデルを認識するために有用な表現を学ぶためには、データの繰り返しと一貫性のあるパターンについて学ぶことを奨励する必要があります。
中レベルの表現発見作業からインスピレーションを得て,パッチレベルのイメージを理由とするpatchvaeを提案する。
我々の重要な貢献はボトルネックの定式化であり、VAEフレームワークの中級スタイルの表現を奨励します。
実験により,本手法で学習した表現は,バニラVAEで学習した表現よりも,認識タスクにおいて優れることが示された。
関連論文リスト
- A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Improving VAE-based Representation Learning [26.47244578124654]
優れた表現にはどのような特性が必要か,また異なるVAE構造選択が学習特性に与える影響について検討する。
ローカルな特徴を学習するデコーダを使用することで、残りのグローバルな特徴を潜伏者によってうまく捉えられることを示す。
論文 参考訳(メタデータ) (2022-05-28T23:00:18Z) - An Empirical Investigation of Representation Learning for Imitation [76.48784376425911]
視覚、強化学習、NLPにおける最近の研究は、補助的な表現学習の目的が、高価なタスク固有の大量のデータの必要性を減らすことを示している。
本稿では,表現学習アルゴリズムを構築するためのモジュラーフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-16T11:23:42Z) - High Fidelity Visualization of What Your Self-Supervised Representation
Knows About [22.982471878833362]
本研究では,条件拡散に基づく生成モデル(RCDM)を用いて,自己教師付きモデルを用いて学習した表現を可視化する。
このモデルの生成品質は、条件付けとして使われる表現に忠実でありながら、最先端の生成モデルとどのように同等かを示す。
論文 参考訳(メタデータ) (2021-12-16T19:23:33Z) - Co$^2$L: Contrastive Continual Learning [69.46643497220586]
近年の自己教師型学習のブレークスルーは、このようなアルゴリズムが視覚的な表現を学習し、見えないタスクにもっとうまく移行できることを示している。
本稿では、連続的な学習と伝達可能な表現の維持に焦点を当てたリハーサルに基づく連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-28T06:14:38Z) - Reasoning over Vision and Language: Exploring the Benefits of
Supplemental Knowledge [59.87823082513752]
本稿では,汎用知識基盤(KB)から視覚言語変換器への知識の注入について検討する。
我々は複数のタスクやベンチマークに対する様々なkbの関連性を実証的に研究する。
この技術はモデルに依存しず、最小限の計算オーバーヘッドで任意の視覚言語変換器の適用可能性を拡張することができる。
論文 参考訳(メタデータ) (2021-01-15T08:37:55Z) - Guided Variational Autoencoder for Disentanglement Learning [79.02010588207416]
本稿では,潜在表現非絡み合い学習を行うことで,制御可能な生成モデルを学習できるアルゴリズム,Guided-VAEを提案する。
我々は、ガイド-VAEにおける教師なし戦略と教師なし戦略を設計し、バニラVAE上でのモデリングと制御能力の強化を観察する。
論文 参考訳(メタデータ) (2020-04-02T20:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。