論文の概要: Deep Generative Modelling: A Comparative Review of VAEs, GANs,
Normalizing Flows, Energy-Based and Autoregressive Models
- arxiv url: http://arxiv.org/abs/2103.04922v1
- Date: Mon, 8 Mar 2021 17:34:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 16:04:29.900703
- Title: Deep Generative Modelling: A Comparative Review of VAEs, GANs,
Normalizing Flows, Energy-Based and Autoregressive Models
- Title(参考訳): 深部生成モデル:VAE, GAN, 正規化フロー, エネルギーベース, 自己回帰モデルの比較検討
- Authors: Sam Bond-Taylor, Adam Leach, Yang Long, Chris G. Willcocks
- Abstract要約: ディープジェネレーションモデリングは、ディープニューラルネットワークをトレーニングしてトレーニングサンプルの分布をモデル化するテクニックのクラスです。
このコンペンディウムはエネルギーベースのモデル、変分オートエンコーダ、生成的逆ネットワーク、自己回帰モデル、正規化フローをカバーする。
- 参考スコア(独自算出の注目度): 7.477211792460795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep generative modelling is a class of techniques that train deep neural
networks to model the distribution of training samples. Research has fragmented
into various interconnected approaches, each of which making trade-offs
including run-time, diversity, and architectural restrictions. In particular,
this compendium covers energy-based models, variational autoencoders,
generative adversarial networks, autoregressive models, normalizing flows, in
addition to numerous hybrid approaches. These techniques are drawn under a
single cohesive framework, comparing and contrasting to explain the premises
behind each, while reviewing current state-of-the-art advances and
implementations.
- Abstract(参考訳): ディープジェネレーションモデリングは、ディープニューラルネットワークをトレーニングしてトレーニングサンプルの分布をモデル化するテクニックのクラスです。
研究はさまざまな相互接続アプローチに分断され、それぞれが実行時、多様性、アーキテクチャ上の制約を含むトレードオフを行っている。
特に、エネルギーベースのモデル、変分オートエンコーダ、生成的敵ネットワーク、自己回帰モデル、正規化フローをカバーし、多くのハイブリッドなアプローチをカバーしている。
これらのテクニックは単一の凝集フレームワークの下に描かれ、それぞれの背景にある前提を比較して対比し、現在の最先端の進歩と実装をレビューする。
関連論文リスト
- Learnable & Interpretable Model Combination in Dynamic Systems Modeling [0.0]
我々は、通常、どのモデルが組み合わされるかについて議論し、様々な混合方程式に基づくモデルを表現することができるモデルインターフェースを提案する。
本稿では,2つの組み合わせモデル間の汎用的な接続を,容易に解釈可能な方法で記述できる新しいワイルドカードトポロジーを提案する。
本稿では、2つのモデル間の異なる接続トポロジを学習し、解釈し、比較する。
論文 参考訳(メタデータ) (2024-06-12T11:17:11Z) - FusionBench: A Comprehensive Benchmark of Deep Model Fusion [78.80920533793595]
ディープモデル融合(Deep Model fusion)とは、複数のディープニューラルネットワークの予測やパラメータを単一のモデルに統合する手法である。
FusionBenchは、ディープモデル融合に特化した最初の包括的なベンチマークである。
論文 参考訳(メタデータ) (2024-06-05T13:54:28Z) - Bridging Model-Based Optimization and Generative Modeling via Conservative Fine-Tuning of Diffusion Models [54.132297393662654]
本稿では,RLによる報酬モデルの最適化により,最先端拡散モデルを微調整するハイブリッド手法を提案する。
我々は、報酬モデルの補間能力を活用し、オフラインデータにおいて最良の設計を上回るアプローチの能力を実証する。
論文 参考訳(メタデータ) (2024-05-30T03:57:29Z) - Model Synthesis for Zero-Shot Model Attribution [26.835046772924258]
生成モデルは、芸術、デザイン、人間とコンピュータの相互作用などの様々な分野を形作っている。
実世界の生成モデルの指紋パターンを模倣した多数の合成モデルを生成するモデル合成手法を提案する。
実験により, この指紋抽出装置は, 合成モデルのみを訓練し, 様々な実世界の生成モデルに対して, 印象的なゼロショットの一般化を実現することができた。
論文 参考訳(メタデータ) (2023-07-29T13:00:42Z) - A Survey on Generative Diffusion Model [75.93774014861978]
拡散モデルは、深層生成モデルの新たなクラスである。
時間を要する反復生成過程や高次元ユークリッド空間への閉じ込めなど、いくつかの制限がある。
本調査では,拡散モデルの向上を目的とした高度な手法を多数提示する。
論文 参考訳(メタデータ) (2022-09-06T16:56:21Z) - Unifying Generative Models with GFlowNets [85.38102320953551]
本稿では, 既存の深層生成モデルとGFlowNetフレームワークの関連性について, 重なり合う特性に光を当てて概説する。
これは、トレーニングと推論アルゴリズムを統一する手段を提供し、生成モデルの集合を構築するためのルートを提供する。
論文 参考訳(メタデータ) (2022-09-06T15:52:51Z) - Diffusion Models: A Comprehensive Survey of Methods and Applications [10.557289965753437]
拡散モデル(英: Diffusion model)は、密度理論の確立を伴う様々なタスクにおいて印象的な結果を示す深層生成モデルのクラスである。
近年,拡散モデルの性能向上への熱意が高まっている。
論文 参考訳(メタデータ) (2022-09-02T02:59:10Z) - Sequential Bayesian Neural Subnetwork Ensembles [4.6354120722975125]
本稿では、トレーニング過程を通じてモデルの複雑さを一貫して維持する動的ベイズニューラルワークのシーケンシャルアンサンブルに対するアプローチを提案する。
提案手法は,予測精度,不確実性推定,アウト・オブ・ディストリビューション検出,および対向ロバスト性の観点から,従来の密度決定モデルとスパース決定モデル,ベイズアンサンブルモデルより優れる。
論文 参考訳(メタデータ) (2022-06-01T22:57:52Z) - Deep Variational Models for Collaborative Filtering-based Recommender
Systems [63.995130144110156]
ディープラーニングは、リコメンダシステムの結果を改善するために、正確な協調フィルタリングモデルを提供する。
提案するモデルは, 深層建築の潜伏空間において, 変分概念を注入性に適用する。
提案手法は, 入射雑音効果を超える変動エンリッチメントのシナリオにおいて, 提案手法の優位性を示す。
論文 参考訳(メタデータ) (2021-07-27T08:59:39Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。