論文の概要: Guided Variational Autoencoder for Disentanglement Learning
- arxiv url: http://arxiv.org/abs/2004.01255v1
- Date: Thu, 2 Apr 2020 20:49:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 09:45:20.040740
- Title: Guided Variational Autoencoder for Disentanglement Learning
- Title(参考訳): 乱れ学習のための変分オートエンコーダ
- Authors: Zheng Ding, Yifan Xu, Weijian Xu, Gaurav Parmar, Yang Yang, Max
Welling, Zhuowen Tu
- Abstract要約: 本稿では,潜在表現非絡み合い学習を行うことで,制御可能な生成モデルを学習できるアルゴリズム,Guided-VAEを提案する。
我々は、ガイド-VAEにおける教師なし戦略と教師なし戦略を設計し、バニラVAE上でのモデリングと制御能力の強化を観察する。
- 参考スコア(独自算出の注目度): 79.02010588207416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an algorithm, guided variational autoencoder (Guided-VAE), that is
able to learn a controllable generative model by performing latent
representation disentanglement learning. The learning objective is achieved by
providing signals to the latent encoding/embedding in VAE without changing its
main backbone architecture, hence retaining the desirable properties of the
VAE. We design an unsupervised strategy and a supervised strategy in Guided-VAE
and observe enhanced modeling and controlling capability over the vanilla VAE.
In the unsupervised strategy, we guide the VAE learning by introducing a
lightweight decoder that learns latent geometric transformation and principal
components; in the supervised strategy, we use an adversarial excitation and
inhibition mechanism to encourage the disentanglement of the latent variables.
Guided-VAE enjoys its transparency and simplicity for the general
representation learning task, as well as disentanglement learning. On a number
of experiments for representation learning, improved synthesis/sampling, better
disentanglement for classification, and reduced classification errors in
meta-learning have been observed.
- Abstract(参考訳): 本稿では,潜在表現非絡み合い学習を行うことで,制御可能な生成モデルを学習できるアルゴリズム,Guided-VAEを提案する。
学習目的は、メインのバックボーンアーキテクチャを変更することなく、VAEの潜伏エンコーディング/埋め込みに信号を提供することにより達成され、VAEの望ましい特性を保持する。
我々は,誘導型vaeにおける教師なし戦略と教師なし戦略を設計し,バニラvae上でのモデリングと制御能力の強化を観測する。
教師なし戦略では,潜時幾何学変換と主成分を学習する軽量デコーダを導入することでVAE学習を指導する。
Guided-VAEは、汎用的な表現学習タスクの透明性とシンプルさ、および非絡み合い学習を享受している。
表現学習, 合成・サンプリングの改善, 分類の歪みの改善, メタラーニングにおける分類誤差の低減など, 数多くの実験が報告されている。
関連論文リスト
- AggSS: An Aggregated Self-Supervised Approach for Class-Incremental Learning [17.155759991260094]
本稿では,自己指導型学習,特に画像回転が様々なクラス増分学習パラダイムに与える影響について検討する。
AggSS戦略を通じて学習する本質的なオブジェクト特徴に対するディープニューラルネットワークの注目度の変化を観察する。
AggSSは、任意のクラス増分学習フレームワークにシームレスに組み込むことができるプラグイン・アンド・プレイモジュールとして機能する。
論文 参考訳(メタデータ) (2024-08-08T10:16:02Z) - Self-Supervised Representation Learning with Meta Comprehensive
Regularization [11.387994024747842]
既存の自己管理フレームワークに組み込まれたCompMod with Meta Comprehensive Regularization (MCR)というモジュールを導入する。
提案したモデルを双方向最適化機構により更新し,包括的特徴を捉える。
本稿では,情報理論と因果対実的視点から提案手法の理論的支援を行う。
論文 参考訳(メタデータ) (2024-03-03T15:53:48Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Generalizable Imitation Learning Through Pre-Trained Representations [19.98418419179064]
我々は、リッチなDINO事前学習型Visual Transformer (ViT) パッチレベルの埋め込みを活用して、実演を通して学習する際の一般化を向上する模倣学習アルゴリズムであるBC-ViTを紹介する。
我々の学習者は、外見の特徴をセマンティックな概念にまとめ、幅広い外見のバリエーションやオブジェクトタイプにまたがる安定なキーポイントを形成することで世界を見る。
論文 参考訳(メタデータ) (2023-11-15T20:15:51Z) - Variance-Covariance Regularization Improves Representation Learning [28.341622247252705]
我々は,分散共分散正規化(VCReg)を導入して,自己教師型学習規則化手法を教師型学習コンテキストに適用する。
我々は、VCRegが画像やビデオの転送学習を大幅に強化し、多数のタスクやデータセットで最先端のパフォーマンスを達成することを実証した。
要約すると、VCRegは、転送学習を大幅に進歩させ、勾配飢餓、神経崩壊、特徴伝達可能性の間の接続を強調する、普遍的に適用可能な正規化フレームワークを提供する。
論文 参考訳(メタデータ) (2023-06-23T05:01:02Z) - Latent Variable Representation for Reinforcement Learning [131.03944557979725]
モデルに基づく強化学習のサンプル効率を改善するために、潜在変数モデルが学習、計画、探索をいかに促進するかは理論上、実証上、不明である。
状態-作用値関数に対する潜在変数モデルの表現ビューを提供する。これは、抽出可能な変分学習アルゴリズムと楽観主義/悲観主義の原理の効果的な実装の両方を可能にする。
特に,潜伏変数モデルのカーネル埋め込みを組み込んだUPB探索を用いた計算効率の良い計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-17T00:26:31Z) - Weakly Supervised Disentangled Representation for Goal-conditioned
Reinforcement Learning [15.698612710580447]
本稿では,サンプル効率の向上と政策一般化を目的としたスキル学習フレームワークDR-GRLを提案する。
本稿では,解釈可能かつ制御可能な表現を学習するための空間変換オートエンコーダ(STAE)を提案する。
DR-GRLは, 試料効率と政策一般化において, 従来の手法よりも有意に優れていたことを実証的に実証した。
論文 参考訳(メタデータ) (2022-02-28T09:05:14Z) - InteL-VAEs: Adding Inductive Biases to Variational Auto-Encoders via
Intermediary Latents [60.785317191131284]
本稿では,潜伏変数の中間集合を用いて,制御可能なバイアスでVAEを学習するための簡易かつ効果的な手法を提案する。
特に、学習した表現に対して、スパーシリティやクラスタリングといった望ましいプロパティを課すことができます。
これにより、InteL-VAEはより優れた生成モデルと表現の両方を学ぶことができる。
論文 参考訳(メタデータ) (2021-06-25T16:34:05Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Provable Representation Learning for Imitation Learning via Bi-level
Optimization [60.059520774789654]
現代の学習システムにおける一般的な戦略は、多くのタスクに有用な表現を学ぶことである。
我々は,複数の専門家の軌道が利用できるマルコフ決定過程(MDP)の模倣学習環境において,この戦略を研究する。
このフレームワークは,行動のクローン化と観察-アローンの模倣学習設定のためにインスタンス化する。
論文 参考訳(メタデータ) (2020-02-24T21:03:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。