論文の概要: Convex Smoothed Autoencoder-Optimal Transport model
- arxiv url: http://arxiv.org/abs/2101.05679v1
- Date: Thu, 14 Jan 2021 15:55:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 00:57:12.623606
- Title: Convex Smoothed Autoencoder-Optimal Transport model
- Title(参考訳): 凸平滑化オートエンコーダ-最適輸送モデル
- Authors: Aratrika Mustafi
- Abstract要約: 我々は,観測データに類似したサンプルを生成することができ,モード崩壊やモード混合のない新しい生成モデルを開発した。
我々のモデルは、最近提案されたオートエンコーダ-最適輸送(AE-OT)モデルにインスパイアされ、AE-OTモデル自体が直面している問題に対処して改善を試みる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative modelling is a key tool in unsupervised machine learning which has
achieved stellar success in recent years. Despite this huge success, even the
best generative models such as Generative Adversarial Networks (GANs) and
Variational Autoencoders (VAEs) come with their own shortcomings, mode collapse
and mode mixture being the two most prominent problems. In this paper we
develop a new generative model capable of generating samples which resemble the
observed data, and is free from mode collapse and mode mixture. Our model is
inspired by the recently proposed Autoencoder-Optimal Transport (AE-OT) model
and tries to improve on it by addressing the problems faced by the AE-OT model
itself, specifically with respect to the sample generation algorithm.
Theoretical results concerning the bound on the error in approximating the
non-smooth Brenier potential by its smoothed estimate, and approximating the
discontinuous optimal transport map by a smoothed optimal transport map
estimate have also been established in this paper.
- Abstract(参考訳): 生成モデリングは教師なし機械学習の鍵となるツールであり、近年は星級の成功を収めている。
このような大きな成功にもかかわらず、GAN(Generative Adversarial Networks)やVAE(VAE)のような最高の生成モデルでさえ、独自の欠点、モード崩壊、モード混合が2つの最も顕著な問題である。
本稿では,観測データに類似したサンプルを生成可能で,モード崩壊やモード混合を伴わない新しい生成モデルを開発した。
本モデルは,最近提案されたae-ot(autoencoder-optimal transport)モデルに着想を得て,ae-otモデル自体が直面する問題,特にサンプル生成アルゴリズムに対処し,改良を試みている。
本論文では,非滑らかなブレニエポテンシャルを滑らかに推定し,不連続な最適輸送マップをスムーズな最適輸送マップ推定で近似する際の誤差に関する理論的結果も明らかにした。
関連論文リスト
- SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - Bridging Model-Based Optimization and Generative Modeling via Conservative Fine-Tuning of Diffusion Models [54.132297393662654]
本稿では,RLによる報酬モデルの最適化により,最先端拡散モデルを微調整するハイブリッド手法を提案する。
我々は、報酬モデルの補間能力を活用し、オフラインデータにおいて最良の設計を上回るアプローチの能力を実証する。
論文 参考訳(メタデータ) (2024-05-30T03:57:29Z) - Single-Model Attribution of Generative Models Through Final-Layer Inversion [16.506531590300806]
最終層逆転と異常検出に基づくオープンワールド設定における単一モデル属性に対する新しいアプローチを提案する。
得られた最終層インバージョンを凸ラッソ最適化問題に還元し,理論的に健全で計算効率がよいことを示す。
論文 参考訳(メタデータ) (2023-05-26T13:06:38Z) - Generative Modeling through the Semi-dual Formulation of Unbalanced
Optimal Transport [9.980822222343921]
非平衡最適輸送(UOT)の半二重定式化に基づく新しい生成モデルを提案する。
OTとは異なり、UOTは分散マッチングの厳しい制約を緩和する。このアプローチは、外れ値に対する堅牢性、トレーニング中の安定性、より高速な収束を提供する。
CIFAR-10ではFIDスコアが2.97、CelebA-HQ-256では6.36である。
論文 参考訳(メタデータ) (2023-05-24T06:31:05Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - RAFT: Reward rAnked FineTuning for Generative Foundation Model Alignment [32.752633250862694]
生成基礎モデルは、広範囲の教師なしのトレーニングデータから生じる暗黙のバイアスに影響を受けやすい。
我々は、生成モデルを効果的に整合させるために設計された新しいフレームワーク、Reward rAnked FineTuningを紹介する。
論文 参考訳(メタデータ) (2023-04-13T18:22:40Z) - Your Autoregressive Generative Model Can be Better If You Treat It as an
Energy-Based One [83.5162421521224]
本稿では,自己回帰生成モデルの学習のための独自のE-ARM法を提案する。
E-ARMは、よく設計されたエネルギーベースの学習目標を活用する。
我々は、E-ARMを効率的に訓練でき、露光バイアス問題を緩和できることを示した。
論文 参考訳(メタデータ) (2022-06-26T10:58:41Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。