論文の概要: Learning Autoencoders with Relational Regularization
- arxiv url: http://arxiv.org/abs/2002.02913v4
- Date: Fri, 26 Jun 2020 01:05:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 04:00:24.329090
- Title: Learning Autoencoders with Relational Regularization
- Title(参考訳): 関係正規化による自動エンコーダの学習
- Authors: Hongteng Xu, Dixin Luo, Ricardo Henao, Svati Shah, Lawrence Carin
- Abstract要約: データ分散のオートエンコーダを学習するための新しいフレームワークを提案する。
エンフレレーショナル正規化によるモデルと対象分布の差を最小限にする
我々はこのフレームワークを2つのスケーラブルアルゴリズムで実装し、確率的および決定論的オートエンコーダの両方に適用する。
- 参考スコア(独自算出の注目度): 89.53065887608088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new algorithmic framework is proposed for learning autoencoders of data
distributions. We minimize the discrepancy between the model and target
distributions, with a \emph{relational regularization} on the learnable latent
prior. This regularization penalizes the fused Gromov-Wasserstein (FGW)
distance between the latent prior and its corresponding posterior, allowing one
to flexibly learn a structured prior distribution associated with the
generative model. Moreover, it helps co-training of multiple autoencoders even
if they have heterogeneous architectures and incomparable latent spaces. We
implement the framework with two scalable algorithms, making it applicable for
both probabilistic and deterministic autoencoders. Our relational regularized
autoencoder (RAE) outperforms existing methods, $e.g.$, the variational
autoencoder, Wasserstein autoencoder, and their variants, on generating images.
Additionally, our relational co-training strategy for autoencoders achieves
encouraging results in both synthesis and real-world multi-view learning tasks.
The code is at https://github.com/HongtengXu/ Relational-AutoEncoders.
- Abstract(参考訳): データ分散のオートエンコーダを学習するための新しいアルゴリズムフレームワークを提案する。
モデルと対象分布の差を最小化し、学習可能な潜在性前置値に \emph{relational regularization} を付与する。
この正規化は、潜在前置と対応する後置との間の融合グロモフ=ワッセルシュタイン(fgw)距離をペナルティ化し、生成モデルに関連する構造化前置分布を柔軟に学習することができる。
さらに、不均一なアーキテクチャや非互換な潜在空間を持つ場合でも、複数のオートエンコーダの協調訓練を支援する。
我々は,このフレームワークを2つのスケーラブルなアルゴリズムで実装し,確率的および決定論的オートエンコーダに適用する。
私たちのrelational regularized autoencoder (rae) は、画像生成において既存のメソッド、例えば$、変分オートエンコーダ、waserstein autoencoder、およびそれらの変種よりも優れています。
さらに,自動エンコーダのリレーショナルコトレーニング戦略は,実世界のマルチビュー学習タスクと合成の双方において促進的な結果をもたらす。
コードはhttps://github.com/HongtengXu/ Relational-AutoEncodersにある。
関連論文リスト
- Triple-Encoders: Representations That Fire Together, Wire Together [51.15206713482718]
コントラスト学習(Contrastive Learning)は、バイエンコーダを介して発話間の相対距離を埋め込み空間に符号化する表現学習法である。
本研究では,これら独立に符号化された発話から分散発話混合物を効率よく計算する三重エンコーダを提案する。
トリプルエンコーダはバイエンコーダよりも大幅に改善され、シングルベクトル表現モデルよりもゼロショットの一般化が向上することがわかった。
論文 参考訳(メタデータ) (2024-02-19T18:06:02Z) - Symmetric Equilibrium Learning of VAEs [56.56929742714685]
可変オートエンコーダ(VAE)をデコーダ-エンコーダペアとみなし,データ空間内の分布を潜在空間内の分布にマッピングする。
本研究では,エンコーダとデコーダに対して対称なナッシュ均衡学習手法を提案し,データと潜伏分布の両方がサンプリングによってのみアクセス可能な状況下でのVAEの学習を可能にする。
論文 参考訳(メタデータ) (2023-07-19T10:27:34Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Benign Autoencoders [0.0]
我々は最適なエンコーダとデコーダのペアを見つける問題を定式化し、その解を「良性オートエンコーダ」(BAE)と呼ぶ。
我々は、BAEが生成問題の最適圧縮性次元である多様体にデータを投影することを証明した。
実例として,分散シフト下での識別器の性能を向上させるために,BAEが最適で低次元の潜在表現を見出す方法を示す。
論文 参考訳(メタデータ) (2022-10-02T21:36:27Z) - String-based Molecule Generation via Multi-decoder VAE [56.465033997245776]
可変オートエンコーダ(VAE)による文字列型分子生成の問題点について検討する。
本稿では,そのタスクに対するVAEの性能を改善するための,シンプルで効果的なアイデアを提案する。
実験では,提案するVAEモデルを用いて,領域外分布からサンプルを生成する。
論文 参考訳(メタデータ) (2022-08-23T03:56:30Z) - Disentangling Autoencoders (DAE) [0.0]
本稿では,グループ理論における対称性変換の原理に基づく,オートエンコーダのための新しいフレームワークを提案する。
我々は,このモデルが正規化不要なオートエンコーダに基づく非絡み合い学習の新たな分野を導くと信じている。
論文 参考訳(メタデータ) (2022-02-20T22:59:13Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Deterministic Decoding for Discrete Data in Variational Autoencoders [5.254093731341154]
サンプリングの代わりに最上位のトークンを選択するシーケンシャルデータに対して,決定論的デコーダ(DD-VAE)を用いたVAEモデルについて検討する。
分子生成や最適化問題を含む複数のデータセット上でのDD-VAEの性能を示す。
論文 参考訳(メタデータ) (2020-03-04T16:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。