論文の概要: Disentangled (Un)Controllable Features
- arxiv url: http://arxiv.org/abs/2211.00086v1
- Date: Mon, 31 Oct 2022 18:37:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 13:06:45.447974
- Title: Disentangled (Un)Controllable Features
- Title(参考訳): disentangle (複数形 disentangles)
- Authors: Jacob E. Kooi, Mark Hoogendoorn, Vincent Fran\c{c}ois-Lavet
- Abstract要約: 本稿では,潜在特徴を制御可能かつ制御不能な部分に切り離すことができる表現学習アルゴリズムを提案する。
結果の表現は容易に解釈でき、学習や計画に効率的に利用できる。
- 参考スコア(独自算出の注目度): 4.022057598291766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the context of MDPs with high-dimensional states, reinforcement learning
can achieve better results when using a compressed, low-dimensional
representation of the original input space. A variety of learning objectives
have therefore been used to learn useful representations. However, these
representations usually lack interpretability of the different features. We
propose a representation learning algorithm that is able to disentangle latent
features into a controllable and an uncontrollable part. The resulting
representations are easily interpretable and can be used for learning and
planning efficiently by leveraging the specific properties of the two parts. To
highlight the benefits of the approach, the disentangling properties of the
algorithm are illustrated in three different environments.
- Abstract(参考訳): 高次元状態のMDPでは、元の入力空間の圧縮された低次元表現を使用する場合、強化学習によりより良い結果が得られる。
そのため、有用な表現を学ぶために様々な学習目的が使用されている。
しかし、これらの表現は通常、異なる特徴の解釈可能性に欠ける。
本稿では,潜在特徴を制御可能部分と制御不能部分とに分離できる表現学習アルゴリズムを提案する。
結果として得られる表現は容易に解釈でき、2つの部分の特定の特性を利用して効率的に学習や計画に使用できる。
このアプローチの利点を強調するために、3つの異なる環境においてアルゴリズムの分離特性を示す。
関連論文リスト
- Decoding Diffusion: A Scalable Framework for Unsupervised Analysis of Latent Space Biases and Representations Using Natural Language Prompts [68.48103545146127]
本稿では拡散潜在空間の教師なし探索のための新しい枠組みを提案する。
我々は、自然言語のプロンプトと画像キャプションを直接利用して、遅延方向をマップする。
本手法は,拡散モデルに符号化された意味的知識をよりスケーラブルで解釈可能な理解を提供する。
論文 参考訳(メタデータ) (2024-10-25T21:44:51Z) - Latent Functional Maps: a spectral framework for representation alignment [34.20582953800544]
表現学習コミュニティに多目的フレームワークを導入し、(i)異なる空間を解釈可能な方法で比較し、その内在的類似性を測定すること、(ii)教師なしと弱教師付きの両方で対応性を見出すこと、(iii)異なる空間間の表現を効果的に伝達すること。
我々は, 縫合作業から検索作業, および複数のモダリティに至るまで, 様々なアプリケーションにおいて, フレームワークを検証し, 表現アライメントのためのスウィスアームナイフとして機能することを示す。
論文 参考訳(メタデータ) (2024-06-20T10:43:28Z) - Representations and Exploration for Deep Reinforcement Learning using
Singular Value Decomposition [29.237357850947433]
ドメインの基底となる遷移構造を保存する表現を得るために,特異値分解に基づく手法を提案する。
これらの表現は、状態訪問の相対的な頻度をキャプチャし、擬似カウントを無償で見積もることも示している。
一部観測可能な領域を用いたマルチタスク設定実験により,提案手法はDM-Lab-30環境上で有用な表現を学習できるだけでなく,DM-Hard-8環境におけるハードな探索作業にも有効であることを示す。
論文 参考訳(メタデータ) (2023-05-01T04:26:03Z) - Fine-Grained Object Classification via Self-Supervised Pose Alignment [42.55938966190932]
我々は,クラス間の自己教師型ポーズアライメントのための局所部分のグローバルな構成を明らかにするために,新しいグラフベースのオブジェクト表現を学習する。
提案手法を3つの評価対象分類ベンチマークで評価し,最先端性能を継続的に達成した。
論文 参考訳(メタデータ) (2022-03-30T01:46:19Z) - Unsupervised Disentanglement with Tensor Product Representations on the
Torus [78.6315881294899]
オートエンコーダで表現を学習する現在の方法では、ほとんどベクターを潜在表現として用いている。
本研究では,この目的のためにテンソル積構造を用いることを提案する。
通常分布する特徴を対象とする従来の変分法とは対照的に,表現の潜在空間は単位円の集合上に均一に分布する。
論文 参考訳(メタデータ) (2022-02-13T04:23:12Z) - Where and What? Examining Interpretable Disentangled Representations [96.32813624341833]
解釈可能なバリエーションの獲得は、長い間、絡み合い学習の目標の1つだった。
独立性の仮定と異なり、解釈性は教師なしの設定での絡み合いを促進するために使われることは滅多にない。
本論文では, 解釈対象と解釈対象の2つの質問について検討し, 離散表現の解釈可能性を検討する。
論文 参考訳(メタデータ) (2021-04-07T11:22:02Z) - Evidential Sparsification of Multimodal Latent Spaces in Conditional
Variational Autoencoders [63.46738617561255]
訓練された条件付き変分オートエンコーダの離散潜時空間をスパース化する問題を考察する。
顕在的理論を用いて、特定の入力条件から直接証拠を受け取る潜在クラスを特定し、そうでないクラスをフィルタリングする。
画像生成や人間の行動予測などの多様なタスクの実験により,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2020-10-19T01:27:21Z) - Object-Centric Multi-View Aggregation [86.94544275235454]
本稿では,オブジェクトのスパースなビュー集合を集約して,半単純3次元表現を容積特徴格子の形で計算する手法を提案する。
我々のアプローチの鍵となるのは、カメラのポーズを明示することなく、ビューを持ち上げることができるオブジェクト中心の標準3D座標システムである。
画素から標準座標系への対称対応マッピングの計算により、未知の領域への情報伝達がより良くなることを示す。
論文 参考訳(メタデータ) (2020-07-20T17:38:31Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。