論文の概要: An Improved Semi-Supervised VAE for Learning Disentangled
Representations
- arxiv url: http://arxiv.org/abs/2006.07460v2
- Date: Mon, 22 Jun 2020 18:20:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 03:07:25.459681
- Title: An Improved Semi-Supervised VAE for Learning Disentangled
Representations
- Title(参考訳): アンタングル表現学習のための半教師付きVAEの改良
- Authors: Weili Nie, Zichao Wang, Ankit B. Patel, Richard G. Baraniuk
- Abstract要約: ラベルの置き換えを意味する別の監督源を導入します。
トレーニング中は、データポイントに関連付けられた推論された表現を、いつでもその接地的表現に置き換える。
我々の拡張は、理論的には、半教師付き非絡み合い学習の一般的な枠組みに着想を得たものである。
- 参考スコア(独自算出の注目度): 29.38345769998613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning interpretable and disentangled representations is a crucial yet
challenging task in representation learning. In this work, we focus on
semi-supervised disentanglement learning and extend work by Locatello et al.
(2019) by introducing another source of supervision that we denote as label
replacement. Specifically, during training, we replace the inferred
representation associated with a data point with its ground-truth
representation whenever it is available. Our extension is theoretically
inspired by our proposed general framework of semi-supervised disentanglement
learning in the context of VAEs which naturally motivates the supervised terms
commonly used in existing semi-supervised VAEs (but not for disentanglement
learning). Extensive experiments on synthetic and real datasets demonstrate
both quantitatively and qualitatively the ability of our extension to
significantly and consistently improve disentanglement with very limited
supervision.
- Abstract(参考訳): 解釈可能で矛盾した表現の学習は、表現学習において不可欠だが挑戦的なタスクである。
本研究は,半教師付き異方性学習に焦点をあて,ラベル置換を表わす別の監督源を導入することで,locationllo et al. (2019) による作業を拡張する。
具体的には、トレーニング中は、データポイントに関連付けられた推論された表現を、利用可能であればその基底構造表現に置き換える。
この拡張は,既存の半教師付きvaesでよく使われる教師付き用語を自然に動機づけるvaesの文脈における,半教師付き異方性学習の一般的な枠組みに理論的にインスパイアされている。
合成データセットと実際のデータセットに関する広範囲な実験は、非常に限定された監督の下で、不連続性を大幅に改善するための拡張の能力を定量的かつ定性的に証明しています。
関連論文リスト
- Zero-Shot Generalization during Instruction Tuning: Insights from Similarity and Granularity [84.12126298229866]
命令チューニング中のゼロショット一般化は非常に早い時期に行われることを示す。
また、「タスク」の制約を伴わずに、命令チューニング中に非常によく似た、きめ細かなトレーニングデータに遭遇することで、より一般化できることを示す。
インストラクションチューニング中のゼロショット一般化は、インスタンスレベルでのトレーニングとテストデータ間の類似性に基づく一般化の形式であることを示す。
論文 参考訳(メタデータ) (2024-06-17T16:40:21Z) - Learning Interpretable Policies in Hindsight-Observable POMDPs through
Partially Supervised Reinforcement Learning [57.67629402360924]
本稿では,PSRL(Partially Supervised Reinforcement Learning)フレームワークを紹介する。
PSRLの中心は、教師なし学習と教師なし学習の融合である。
PSRLは、保存中のモデル解釈可能性を高め、従来の手法で設定された性能ベンチマークよりも大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-02-14T16:23:23Z) - Harnessing Discrete Representations For Continual Reinforcement Learning [8.61539229796467]
強化学習の文脈における分類的価値のベクトルとして観測を表現することの利点について検討する。
従来の連続表現と比較すると、離散表現よりも学習した世界モデルは、キャパシティの少ない世界のより正確なモデルであることが分かる。
論文 参考訳(メタデータ) (2023-12-02T18:55:26Z) - Hierarchical Decomposition of Prompt-Based Continual Learning:
Rethinking Obscured Sub-optimality [55.88910947643436]
大量のラベルのないデータを実際に扱うためには、自己教師付き事前トレーニングが不可欠である。
HiDe-Promptは、タスク固有のプロンプトと統計のアンサンブルで階層的なコンポーネントを明示的に最適化する革新的なアプローチである。
実験では,HiDe-Promptの優れた性能と,継続学習における事前学習パラダイムへの頑健さを実証した。
論文 参考訳(メタデータ) (2023-10-11T06:51:46Z) - Generalization Across Observation Shifts in Reinforcement Learning [13.136140831757189]
バイシミュレーションフレームワークを拡張して、コンテキスト依存の観察シフトを考慮します。
具体的には,シミュレータに基づく学習設定に焦点をあて,代替観測を用いて表現空間を学習する。
これにより、テスト期間中にエージェントをさまざまな監視設定にデプロイし、目に見えないシナリオに一般化することができます。
論文 参考訳(メタデータ) (2023-06-07T16:49:03Z) - Fair Representation Learning using Interpolation Enabled Disentanglement [9.043741281011304]
a) 下流タスクに対する学習された表現の有用性を確保しつつ、公平な不整合表現を同時に学べるか、(b) 提案手法が公正かつ正確であるかどうかに関する理論的知見を提供する。
前者に対応するために,補間可能外乱を用いた公正表現学習法FRIEDを提案する。
論文 参考訳(メタデータ) (2021-07-31T17:32:12Z) - Weakly Supervised Temporal Adjacent Network for Language Grounding [96.09453060585497]
本稿では,時間的言語接地のための新しい教師付き時間的隣接ネットワーク(WSTAN)を提案する。
WSTANは、複数のインスタンス学習(MIL)パラダイムにおいて、時間的隣接ネットワークを活用することで、モーダル間のセマンティックアライメントを学習する。
MILブランチと補完ブランチの両方で、自己監督による意味的識別を強化するために、追加の自己識別損失が考案された。
論文 参考訳(メタデータ) (2021-06-30T15:42:08Z) - Co$^2$L: Contrastive Continual Learning [69.46643497220586]
近年の自己教師型学習のブレークスルーは、このようなアルゴリズムが視覚的な表現を学習し、見えないタスクにもっとうまく移行できることを示している。
本稿では、連続的な学習と伝達可能な表現の維持に焦点を当てたリハーサルに基づく連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-28T06:14:38Z) - Reinforcement Learning with Prototypical Representations [114.35801511501639]
Proto-RLは、プロトタイプ表現を通じて表現学習と探索を結び付ける自己監督型フレームワークである。
これらのプロトタイプは、エージェントの探索経験の要約と同時に、観察を表す基盤としても機能する。
これにより、困難な連続制御タスクのセットで最新の下流ポリシー学習が可能になります。
論文 参考訳(メタデータ) (2021-02-22T18:56:34Z) - Odd-One-Out Representation Learning [1.6822770693792826]
ランダム・ワン・アウト観測に基づく下流の弱教師付きタスクがモデル選択に適していることを示す。
また,この課題を高度に遂行する,目覚しいメトリック学習型VAEモデルが,他の標準の教師なしおよび弱教師付きアンタングルメントモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-14T22:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。