論文の概要: TR0N: Translator Networks for 0-Shot Plug-and-Play Conditional
Generation
- arxiv url: http://arxiv.org/abs/2304.13742v1
- Date: Wed, 26 Apr 2023 18:00:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 15:41:51.482007
- Title: TR0N: Translator Networks for 0-Shot Plug-and-Play Conditional
Generation
- Title(参考訳): TR0N:0ショットプラグアンドプレイ条件生成のためのトランスレータネットワーク
- Authors: Zhaoyan Liu, Noel Vouitsis, Satya Krishna Gorti, Jimmy Ba, Gabriel
Loaiza-Ganem
- Abstract要約: TR0Nは、事前訓練された無条件生成モデル(GANやVAE)を条件付きモデルに変換するためのフレームワークである。
MS-COCOでは10.9のゼロショットFIDを達成でき、競合する代替品よりも優れている。
- 参考スコア(独自算出の注目度): 32.93211379735189
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose TR0N, a highly general framework to turn pre-trained unconditional
generative models, such as GANs and VAEs, into conditional models. The
conditioning can be highly arbitrary, and requires only a pre-trained auxiliary
model. For example, we show how to turn unconditional models into
class-conditional ones with the help of a classifier, and also into
text-to-image models by leveraging CLIP. TR0N learns a lightweight stochastic
mapping which "translates" between the space of conditions and the latent space
of the generative model, in such a way that the generated latent corresponds to
a data sample satisfying the desired condition. The translated latent samples
are then further improved upon through Langevin dynamics, enabling us to obtain
higher-quality data samples. TR0N requires no training data nor fine-tuning,
yet can achieve a zero-shot FID of 10.9 on MS-COCO, outperforming competing
alternatives not only on this metric, but also in sampling speed -- all while
retaining a much higher level of generality. Our code is available at
https://github.com/layer6ai-labs/tr0n.
- Abstract(参考訳): 我々は、gansやvaesのような事前訓練された非条件生成モデルを条件付きモデルに変換する、非常に一般的なフレームワークであるtr0nを提案する。
条件付けは非常に任意であり、事前訓練された補助モデルのみを必要とする。
例えば、分類器の助けを借りて無条件モデルをクラス条件モデルに変換する方法や、クリップを活用してテキストから画像モデルに変換する方法を示す。
tr0nは、生成した潜在性が所望の条件を満たすデータサンプルに対応するように、条件空間と生成モデルの潜在性空間の間で「遷移」する軽量な確率写像を学習する。
翻訳された潜伏サンプルはランゲヴィン力学によりさらに改良され、高品質なデータサンプルが得られる。
tr0nはトレーニングデータや微調整を必要としないが、ms-cocoではゼロショットfidを10.9で達成でき、このメトリックだけでなくサンプリング速度でも競合製品よりも優れている。
私たちのコードはhttps://github.com/layer6ai-labs/tr0nで利用可能です。
関連論文リスト
- Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - No "Zero-Shot" Without Exponential Data: Pretraining Concept Frequency Determines Multimodal Model Performance [68.18779562801762]
マルチモーダルモデルは、下流の"ゼロショット"のパフォーマンスを線形改善するために、指数関数的に多くのデータを必要とする。
本研究は,大規模な訓練パラダイムの下での「ゼロショット」一般化能力の鍵となる訓練データに対する指数関数的要求を明らかにする。
論文 参考訳(メタデータ) (2024-04-04T17:58:02Z) - Score Mismatching for Generative Modeling [4.413162309652114]
そこで我々は,一段階サンプリングを用いた新しいスコアベースモデルを提案する。
我々は、スコアネットワークから逆転した勾配で全ての時間ステップを圧縮するようにスタンドアロンのジェネレータを訓練する。
生成器に有意義な勾配を与えるため、スコアネットワークは実データ分布を同時にマッチングし、偽データ分布を誤マッチするように訓練される。
論文 参考訳(メタデータ) (2023-09-20T03:47:12Z) - Zero-Shot Conditioning of Score-Based Diffusion Models by Neuro-Symbolic Constraints [1.1826485120701153]
本研究では,事前学習した無条件スコアベース生成モデルを用いて,任意の論理的制約の下で条件分布からサンプルを抽出する手法を提案する。
ユーザ定義制約の非正規化分布条件から標本化するために,学習したスコアの操作方法を示す。
ソフト論理制約を符号化するための柔軟で数値的に安定なニューロシンボリック・フレームワークを定義する。
論文 参考訳(メタデータ) (2023-08-31T08:25:47Z) - Consistent Diffusion Models: Mitigating Sampling Drift by Learning to be
Consistent [97.64313409741614]
本稿では, モデルが生成したデータ上での予測が時間とともに一定であることを示す, 両立性特性を強制することを提案する。
CIFAR-10の条件および非条件生成とAFHQとFFHQのベースライン改良について,本研究の新たな訓練目標が得られた。
論文 参考訳(メタデータ) (2023-02-17T18:45:04Z) - Why Are Conditional Generative Models Better Than Unconditional Ones? [36.870497480570776]
そこで本研究では,k-meansアルゴリズムによってクラスタリングされた指標に基づいて,事前学習されたモデルによって抽出された特徴に基づいて,自己条件付き拡散モデル(SCDM)を提案する。
SCDMは、さまざまなデータセットにわたる無条件モデルと、ラベルなしでImageNet 64x64上で3.94の記録破りのFIDを実現している。
論文 参考訳(メタデータ) (2022-12-01T08:44:21Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Learnable Boundary Guided Adversarial Training [66.57846365425598]
私たちは、あるクリーンモデルからのモデルロジットを使用して、別のロバストモデルの学習をガイドします。
我々は、CIFAR-100上で、追加の実データや合成データなしで、新しい最先端のロバスト性を実現する。
論文 参考訳(メタデータ) (2020-11-23T01:36:05Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。