論文の概要: Improving the Reconstruction of Disentangled Representation Learners via
Multi-Stage Modelling
- arxiv url: http://arxiv.org/abs/2010.13187v1
- Date: Sun, 25 Oct 2020 18:51:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 04:13:36.581784
- Title: Improving the Reconstruction of Disentangled Representation Learners via
Multi-Stage Modelling
- Title(参考訳): マルチステージモデリングによるアンタングル表現学習者の再構築
- Authors: Akash Srivastava, Yamini Bansal, Yukun Ding, Cole Hurwitz, Kai Xu,
Bernhard Egger, Prasanna Sattigeri, Josh Tenenbaum, David D. Cox, Dan
Gutfreund
- Abstract要約: 現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
モデルが相関変数を学習するのに十分な能力を持っていないため,不整合表現学習と再構成品質のトレードオフがもたらされる。
本稿では,既存の不整合表現学習手法を用いて,非整合因子をまず学習する,新しい多段階モデリング手法を提案する。
提案するマルチステージモデルは,複数の標準ベンチマークにおいて等価なアンタングル性能を有する現在の最先端手法よりも,はるかに高い再現性を有することを示す。
- 参考スコア(独自算出の注目度): 36.511724015405036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current autoencoder-based disentangled representation learning methods
achieve disentanglement by penalizing the (aggregate) posterior to encourage
statistical independence of the latent factors. This approach introduces a
trade-off between disentangled representation learning and reconstruction
quality since the model does not have enough capacity to learn correlated
latent variables that capture detail information present in most image data. To
overcome this trade-off, we present a novel multi-stage modelling approach
where the disentangled factors are first learned using a preexisting
disentangled representation learning method (such as $\beta$-TCVAE); then, the
low-quality reconstruction is improved with another deep generative model that
is trained to model the missing correlated latent variables, adding detail
information while maintaining conditioning on the previously learned
disentangled factors. Taken together, our multi-stage modelling approach
results in a single, coherent probabilistic model that is theoretically
justified by the principal of D-separation and can be realized with a variety
of model classes including likelihood-based models such as variational
autoencoders, implicit models such as generative adversarial networks, and
tractable models like normalizing flows or mixtures of Gaussians. We
demonstrate that our multi-stage model has much higher reconstruction quality
than current state-of-the-art methods with equivalent disentanglement
performance across multiple standard benchmarks.
- Abstract(参考訳): 現在の自己エンコーダに基づく非絡み合い表現学習法は、後部(アグリゲート)をペナル化することにより、潜伏因子の統計的独立を促進する。
このアプローチでは、ほとんどの画像データに存在する詳細情報をキャプチャする相関潜在変数を学習するのに十分な能力を持たないため、不連続表現学習と再構成品質とのトレードオフを導入する。
このトレードオフを克服するために,既存の不整合表現学習法(例えば$\beta$-TCVAE)を用いて,不整合因子を学習する新しい多段階モデリング手法を提案する。
多段階モデリングのアプローチを組み合わせると、d分離の原則によって理論的に正当化され、変分オートエンコーダのような帰納的モデル、生成的逆ネットワークのような暗黙的モデル、流れの正規化やガウスの混合のような扱いやすいモデルなど、様々なモデルクラスで実現できる単一のコヒーレントな確率モデルができあがります。
我々は,マルチステージモデルが現在の最先端手法よりもはるかに高いコンストラクション品質を有し,複数の標準ベンチマークで同等な異角性性能を示すことを実証する。
関連論文リスト
- Embedding-based statistical inference on generative models [10.948308354932639]
生成モデルの埋め込みに基づく表現に関する結果を、古典的な統計的推論設定に拡張する。
類似」の概念の基盤として視点空間を用いることは、複数のモデルレベルの推論タスクに有効であることを示す。
論文 参考訳(メタデータ) (2024-10-01T22:28:39Z) - Predictive Modeling in the Reservoir Kernel Motif Space [0.9217021281095907]
本研究では,線形貯水池のカーネルビューに基づく時系列予測手法を提案する。
我々は、我々のアプローチがコア貯水池モデルとどのように関係しているかについての光を遮蔽するアプローチの幾何学的解釈を提供する。
実験では,提案モデルの予測性能と最近の最先端変圧器モデルとの比較を行った。
論文 参考訳(メタデータ) (2024-05-11T16:12:25Z) - Revealing Multimodal Contrastive Representation Learning through Latent
Partial Causal Models [85.67870425656368]
マルチモーダルデータに特化して設計された統一因果モデルを提案する。
マルチモーダル・コントラスト表現学習は潜在結合変数の同定に優れていることを示す。
実験では、仮定が破られたとしても、我々の発見の堅牢性を示す。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - Bayesian Additive Main Effects and Multiplicative Interaction Models
using Tensor Regression for Multi-environmental Trials [0.0]
本稿では,複数の因子が表現型予測に与える影響を考慮したベイズテンソル回帰モデルを提案する。
我々は、モデルのパラメータ間で生じる可能性のある識別可能性の問題を解決するための、事前分布のセットを採用する。
我々は2010年から2019年までのアイルランドにおける小麦生産に関する実世界のデータを分析して、我々のモデルの適用性を探る。
論文 参考訳(メタデータ) (2023-01-09T19:54:50Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - De-Biasing Generative Models using Counterfactual Methods [0.0]
我々はCausal Counterfactual Generative Model (CCGM) と呼ばれる新しいデコーダベースのフレームワークを提案する。
提案手法は,因果関係の忠実さを強調するために,因果関係の潜在空間VAEモデルと特定の修正を加えたものである。
因果的学習と符号化/復号化が因果的介入の質をいかに高めるかを検討する。
論文 参考訳(メタデータ) (2022-07-04T16:53:20Z) - Discriminative Multimodal Learning via Conditional Priors in Generative
Models [21.166519800652047]
本研究は,モデルトレーニングにおいて,すべてのモダリティとクラスラベルが利用できる現実的なシナリオについて研究する。
このシナリオでは、変動的な下界境界は、結合表現と欠測モダリティの間の相互情報を制限する。
論文 参考訳(メタデータ) (2021-10-09T17:22:24Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Normalizing Flows with Multi-Scale Autoregressive Priors [131.895570212956]
マルチスケール自己回帰前処理(mAR)を通した遅延空間におけるチャネルワイド依存性を導入する。
我々のmARは、分割結合フロー層(mAR-SCF)を持つモデルに先立って、複雑なマルチモーダルデータの依存関係をよりよく捉えます。
我々は,mAR-SCFにより画像生成品質が向上し,FIDとインセプションのスコアは最先端のフローベースモデルと比較して向上したことを示す。
論文 参考訳(メタデータ) (2020-04-08T09:07:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。