論文の概要: SW-VAE: Weakly Supervised Learn Disentangled Representation Via Latent
Factor Swapping
- arxiv url: http://arxiv.org/abs/2209.10623v1
- Date: Wed, 21 Sep 2022 19:34:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 12:50:47.623996
- Title: SW-VAE: Weakly Supervised Learn Disentangled Representation Via Latent
Factor Swapping
- Title(参考訳): SW-VAE: 遅延因子スワッピングによる非交叉表現の弱監視
- Authors: Jiageng Zhu, Hanchen Xie, Wael Abd-Almageed
- Abstract要約: SW-VAE という名称の弱い教師付きトレーニング手法を提案し,データセットの生成因子を用いて,2組の入力観測を教師信号として組み込む。
いくつかのデータセットで示されるように、我々のモデルは表現の非絡み付けタスクにおける最先端(SOTA)手法よりも大幅に改善されている。
- 参考スコア(独自算出の注目度): 12.012459418829732
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Representation disentanglement is an important goal of representation
learning that benefits various downstream tasks. To achieve this goal, many
unsupervised learning representation disentanglement approaches have been
developed. However, the training process without utilizing any supervision
signal have been proved to be inadequate for disentanglement representation
learning. Therefore, we propose a novel weakly-supervised training approach,
named as SW-VAE, which incorporates pairs of input observations as supervision
signals by using the generative factors of datasets. Furthermore, we introduce
strategies to gradually increase the learning difficulty during training to
smooth the training process. As shown on several datasets, our model shows
significant improvement over state-of-the-art (SOTA) methods on representation
disentanglement tasks.
- Abstract(参考訳): 表現の絡み合いは、様々な下流タスクに役立つ表現学習の重要な目標である。
この目的を達成するために、教師なし学習表現非絡み合いアプローチが数多く開発されている。
しかし, 教師信号を使用しない訓練プロセスは, 絡み合い表現学習には不十分であることが証明されている。
そこで本研究では,データセットの生成因子を用いて,入力観測のペアを監督信号として組み込む,sw-vaeと呼ばれる新しい弱教師付き学習手法を提案する。
さらに,学習過程の円滑化を図るため,学習の難しさを徐々に増す戦略を導入する。
いくつかのデータセットで示されるように、このモデルでは、表現の不整合タスクにおける最先端(SOTA)メソッドよりも大幅に改善されている。
関連論文リスト
- A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Sequential Action-Induced Invariant Representation for Reinforcement
Learning [1.2046159151610263]
視覚的障害を伴う高次元観察からタスク関連状態表現を正確に学習する方法は、視覚的強化学習において難しい問題である。
本稿では,逐次動作の制御信号に従うコンポーネントのみを保持するために,補助学習者によってエンコーダを最適化した逐次行動誘発不変表現(SAR)法を提案する。
論文 参考訳(メタデータ) (2023-09-22T05:31:55Z) - TACO: Temporal Latent Action-Driven Contrastive Loss for Visual Reinforcement Learning [73.53576440536682]
時間的行動駆動型コントラスト学習(TACO: Temporal Action-driven Contrastive Learning)は、時間的コントラスト学習の強力なアプローチである。
TACOは、現在の状態の表現間の相互情報を最適化することにより、状態と行動表現を同時に学習する。
オンラインRLでは、TACOは100万の環境インタラクションステップの後、40%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2023-06-22T22:21:53Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - VIBR: Learning View-Invariant Value Functions for Robust Visual Control [3.2307366446033945]
VIBR (View-Invariant Bellman Residuals) は、マルチビュートレーニングと不変予測を組み合わせて、RLベースのビジュモータ制御における分配ギャップを削減する手法である。
視覚摂動の高い複雑なビジュオモータ制御環境において,VIBRは既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-14T14:37:34Z) - Visual Adversarial Imitation Learning using Variational Models [60.69745540036375]
逆関数仕様は、深い強化学習を通しての学習行動にとって大きな障害であり続けている。
望ましい行動の視覚的なデモンストレーションは、エージェントを教えるためのより簡単で自然な方法を示すことが多い。
変動モデルに基づく対向的模倣学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-16T00:15:18Z) - Learning Task Informed Abstractions [10.920599910769276]
本稿では,報酬関連視覚的特徴を注意散らしから明確に分離する学習タスクインフォームド抽象化(TIA)を提案する。
TIAは、多くの視覚制御タスクにおける最先端の手法よりも大きなパフォーマンス向上をもたらす。
論文 参考訳(メタデータ) (2021-06-29T17:56:11Z) - Farewell to Mutual Information: Variational Distillation for Cross-Modal
Person Re-Identification [41.02729491273057]
Information Bottleneck (IB)は、表現学習のための情報理論の原則を提供する。
我々は、スケーラブルで柔軟で分析的なソリューションを提供する新しい戦略、可変自己蒸留(VSD)を提示します。
また、Variational Cross-Distillation (VCD) と Variational Mutual-Learning (VML) の2つの戦略を紹介します。
論文 参考訳(メタデータ) (2021-04-07T02:19:41Z) - Reinforcement Learning with Prototypical Representations [114.35801511501639]
Proto-RLは、プロトタイプ表現を通じて表現学習と探索を結び付ける自己監督型フレームワークである。
これらのプロトタイプは、エージェントの探索経験の要約と同時に、観察を表す基盤としても機能する。
これにより、困難な連続制御タスクのセットで最新の下流ポリシー学習が可能になります。
論文 参考訳(メタデータ) (2021-02-22T18:56:34Z) - Guided Variational Autoencoder for Disentanglement Learning [79.02010588207416]
本稿では,潜在表現非絡み合い学習を行うことで,制御可能な生成モデルを学習できるアルゴリズム,Guided-VAEを提案する。
我々は、ガイド-VAEにおける教師なし戦略と教師なし戦略を設計し、バニラVAE上でのモデリングと制御能力の強化を観察する。
論文 参考訳(メタデータ) (2020-04-02T20:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。