論文の概要: From abstract items to latent spaces to observed data and back:
Compositional Variational Auto-Encoder
- arxiv url: http://arxiv.org/abs/2001.07910v1
- Date: Wed, 22 Jan 2020 08:30:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 18:04:45.445983
- Title: From abstract items to latent spaces to observed data and back:
Compositional Variational Auto-Encoder
- Title(参考訳): 抽象項目から潜在空間へ、観測データとバック:構成変分自動エンコーダ
- Authors: Victor Berger (TAU), Mich\`ele Sebag (LRI)
- Abstract要約: 条件付き生成モデルは現在、機械学習に不可欠なツールとして認められている。
提案したCompVAEは、データを自然なマルチアンサンブルリスト構造で処理する。
観測情報と記号情報の両方を活用する潜在表現を学習する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional Generative Models are now acknowledged an essential tool in
Machine Learning. This paper focuses on their control. While many approaches
aim at disentangling the data through the coordinate-wise control of their
latent representations, another direction is explored in this paper. The
proposed CompVAE handles data with a natural multi-ensemblist structure (i.e.
that can naturally be decomposed into elements). Derived from Bayesian
variational principles, CompVAE learns a latent representation leveraging both
observational and symbolic information. A first contribution of the approach is
that this latent representation supports a compositional generative model,
amenable to multi-ensemblist operations (addition or subtraction of elements in
the composition). This compositional ability is enabled by the invariance and
generality of the whole framework w.r.t. respectively, the order and number of
the elements. The second contribution of the paper is a proof of concept on
synthetic 1D and 2D problems, demonstrating the efficiency of the proposed
approach.
- Abstract(参考訳): 条件付き生成モデルは現在、機械学習に不可欠なツールとして認められている。
本稿では,その制御に着目する。
本論文では, 遅延表現の座標ワイド制御によりデータをアンタングする手法が多数提案されているが, また別の方向が検討されている。
提案されたcompvaeは、自然のマルチセンスリスト構造(つまり、自然に要素に分解できる)を持つデータを扱う。
ベイズ変分原理から派生したCompVAEは、観測情報と記号情報の両方を活用する潜在表現を学ぶ。
このアプローチの第一の貢献は、この潜在表現が合成生成モデルをサポートし、マルチアンサンブラスト演算(合成における要素の追加または減算)に順応できることである。
この構成能力は、各要素の位数と数であるフレームワーク全体の不変性と一般性によって実現される。
本論文の第二の貢献は, 合成1次元および2次元問題の概念実証であり, 提案手法の有効性を示すものである。
関連論文リスト
- Disentanglement with Factor Quantized Variational Autoencoders [11.086500036180222]
本稿では,生成因子に関する基礎的真理情報をモデルに提供しない離散変分オートエンコーダ(VAE)モデルを提案する。
本研究では, 離散表現を学習する上で, 連続表現を学習することの利点を実証する。
FactorQVAEと呼ばれる手法は,最適化に基づく不整合アプローチと離散表現学習を組み合わせた最初の手法である。
論文 参考訳(メタデータ) (2024-09-23T09:33:53Z) - Disentangling Multi-view Representations Beyond Inductive Bias [32.15900989696017]
本稿では,表現の解釈可能性と一般化性を両立させる新しい多視点表現分離手法を提案する。
提案手法は,クラスタリングと分類性能において,12種類の比較手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-08-03T09:09:28Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Language-free Compositional Action Generation via Decoupling Refinement [67.50452446686725]
本稿では,言語補助に頼らずに作曲行動を生成する新しい枠組みを提案する。
このアプローチは,アクション結合,条件付きアクション生成,デカップリングリファインメントという3つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-07-07T12:00:38Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Neural Constraint Satisfaction: Hierarchical Abstraction for
Combinatorial Generalization in Object Rearrangement [75.9289887536165]
基礎となるエンティティを明らかにするための階層的抽象化手法を提案する。
本研究では,エージェントのモデルにおける実体の状態の介入と,環境中の物体に作用する状態の対応関係を学習する方法を示す。
この対応を利用して、オブジェクトの異なる数や構成に一般化する制御法を開発する。
論文 参考訳(メタデータ) (2023-03-20T18:19:36Z) - Robust and Controllable Object-Centric Learning through Energy-based
Models [95.68748828339059]
我々の研究は概念的にシンプルで一般的なアプローチであり、エネルギーベースモデルを通してオブジェクト中心の表現を学習する。
既存のアーキテクチャに容易に統合でき、高品質なオブジェクト中心表現を効果的に抽出できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:11:15Z) - Enriching Transformers with Structured Tensor-Product Representations
for Abstractive Summarization [131.23966358405767]
抽象的な要約のタスクに対して,明示的に構成された製品表現(TPR)をTP-TRANSFORMERに適用する。
モデルの主な特徴は、トークンごとに2つの別々の表現を符号化することで導入する構造バイアスである。
本稿では,TP-TRANSFORMER が Transformer と TP-TRANSFORMER より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-02T17:32:33Z) - Learning Discrete Structured Representations by Adversarially Maximizing
Mutual Information [39.87273353895564]
本研究では、構造化潜在変数と対象変数の相互情報を最大化することにより、ラベルのないデータから離散的構造化表現を学習する。
我々の重要な技術的貢献は、クロスエントロピー計算の実現可能性のみを前提として、相互情報を的確に見積もることができる敵の目的である。
文書ハッシュに本モデルを適用し,離散およびベクトル量子化変分オートエンコーダに基づいて,現在の最良ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-08T13:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。