論文の概要: Forward Operator Estimation in Generative Models with Kernel Transfer
Operators
- arxiv url: http://arxiv.org/abs/2112.00305v1
- Date: Wed, 1 Dec 2021 06:54:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 00:18:53.005520
- Title: Forward Operator Estimation in Generative Models with Kernel Transfer
Operators
- Title(参考訳): カーネル転送演算子を用いた生成モデルのフォワード演算子推定
- Authors: Zhichun Huang and Rudrasis Chakraborty and Vikas Singh
- Abstract要約: 本定式化により,高効率な分布近似とサンプリングが可能となり,驚くほど優れた実験性能が得られることを示す。
また、このアルゴリズムは小さなサンプルサイズ設定(脳画像)でも良好に動作することを示す。
- 参考スコア(独自算出の注目度): 37.999297683250575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models which use explicit density modeling (e.g., variational
autoencoders, flow-based generative models) involve finding a mapping from a
known distribution, e.g. Gaussian, to the unknown input distribution. This
often requires searching over a class of non-linear functions (e.g.,
representable by a deep neural network). While effective in practice, the
associated runtime/memory costs can increase rapidly, usually as a function of
the performance desired in an application. We propose a much cheaper (and
simpler) strategy to estimate this mapping based on adapting known results in
kernel transfer operators. We show that our formulation enables highly
efficient distribution approximation and sampling, and offers surprisingly good
empirical performance that compares favorably with powerful baselines, but with
significant runtime savings. We show that the algorithm also performs well in
small sample size settings (in brain imaging).
- Abstract(参考訳): 明示的な密度モデル(例えば変分オートエンコーダ、フローベースの生成モデル)を使用する生成モデルは、既知の分布、例えばガウス分布から未知の入力分布へのマッピングを見つけることを含む。
これはしばしば非線形関数のクラスを探索する必要がある(例えば、ディープニューラルネットワークで表現できる)。
実際には有効だが、関連するランタイム/メモリコストは、通常、アプリケーションで望まれるパフォーマンスの関数として、急速に増加する可能性がある。
我々は、カーネル転送演算子における既知の結果の適応に基づいて、このマッピングを推定するために、はるかに安価(かつより単純な)戦略を提案する。
我々の定式化は,高効率な分布近似とサンプリングを可能にし,強力なベースラインに比較して驚くほど優れた実験性能を提供するが,実行時の大幅な節約が期待できることを示す。
このアルゴリズムは、小さなサンプルサイズ設定(脳画像)でも良好に動作することを示す。
関連論文リスト
- Precision-Recall Divergence Optimization for Generative Modeling with
GANs and Normalizing Flows [54.050498411883495]
本研究では,ジェネレーティブ・アドバイサル・ネットワークや正規化フローなどの生成モデルのための新しいトレーニング手法を開発した。
指定された精度-リコールトレードオフを達成することは、textitPR-divergencesと呼ぶ家族からのユニークな$f$-divergenceを最小化することを意味する。
当社のアプローチは,ImageNetなどのデータセットでテストした場合の精度とリコールの両面で,BigGANのような既存の最先端モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-05-30T10:07:17Z) - Using Intermediate Forward Iterates for Intermediate Generator
Optimization [14.987013151525368]
中間ジェネレータ最適化は、生成タスクのための任意の標準オートエンコーダパイプラインに組み込むことができる。
IGOの2つの密集予測タスク(viz.)、画像外挿、点雲デノイング(denoising)に対する応用を示す。
論文 参考訳(メタデータ) (2023-02-05T08:46:15Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Exponentially Tilted Gaussian Prior for Variational Autoencoder [3.52359746858894]
近年の研究では, この課題に対して確率的生成モデルが不十分であることが示されている。
変分オートエンコーダ(VAE)の指数傾斜ガウス事前分布を提案する。
本モデルでは,標準ガウスVAEよりクオリティの高い画像サンプルが得られた。
論文 参考訳(メタデータ) (2021-11-30T18:28:19Z) - Variational Inference with NoFAS: Normalizing Flow with Adaptive
Surrogate for Computationally Expensive Models [7.217783736464403]
マルコフ連鎖モンテカルロのようなサンプリングに基づくアプローチの使用は、それぞれの可能性評価が計算的に高価であるときに難解になる可能性がある。
変分推論と正規化フローを組み合わせた新しいアプローチは、潜在変数空間の次元と線形にしか成長しない計算コストによって特徴づけられる。
本稿では,ニューラルネットワークサロゲートモデルの正規化フローパラメータと重みを代わりに更新する最適化戦略である,適応サロゲートを用いた正規化フロー(NoFAS)を提案する。
論文 参考訳(メタデータ) (2021-08-28T14:31:45Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Attentive Gaussian processes for probabilistic time-series generation [4.94950858749529]
本稿では,ガウス過程の回帰と組み合わせて実数値列を生成する,計算効率のよいアテンションベースネットワークを提案する。
我々は,GPがフルバッチを用いて訓練されている間,ネットワークのミニバッチトレーニングを可能にするブロックワイズトレーニングアルゴリズムを開発した。
アルゴリズムは収束することが証明され、より良くなくても、見いだされた解の品質に匹敵することを示す。
論文 参考訳(メタデータ) (2021-02-10T01:19:15Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Gaussianization Flows [113.79542218282282]
そこで本研究では,サンプル生成における効率のよい繰り返しと効率のよい逆変換を両立できる新しい型正規化フローモデルを提案する。
この保証された表現性のため、サンプル生成の効率を損なうことなく、マルチモーダルなターゲット分布をキャプチャできる。
論文 参考訳(メタデータ) (2020-03-04T08:15:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。