論文の概要: Generative Models as Distributions of Functions
- arxiv url: http://arxiv.org/abs/2102.04776v1
- Date: Tue, 9 Feb 2021 11:47:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 15:19:15.960487
- Title: Generative Models as Distributions of Functions
- Title(参考訳): 関数の分布としての生成モデル
- Authors: Emilien Dupont, Yee Whye Teh, Arnaud Doucet
- Abstract要約: 生成モデルは一般的に、画像のようなグリッドのようなデータに基づいて訓練される。
本稿では,離散格子を放棄し,連続関数による個々のデータポイントのパラメータ化を行う。
- 参考スコア(独自算出の注目度): 72.2682083758999
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models are typically trained on grid-like data such as images. As
a result, the size of these models usually scales directly with the underlying
grid resolution. In this paper, we abandon discretized grids and instead
parameterize individual data points by continuous functions. We then build
generative models by learning distributions over such functions. By treating
data points as functions, we can abstract away from the specific type of data
we train on and construct models that scale independently of signal resolution
and dimension. To train our model, we use an adversarial approach with a
discriminator that acts directly on continuous signals. Through experiments on
both images and 3D shapes, we demonstrate that our model can learn rich
distributions of functions independently of data type and resolution.
- Abstract(参考訳): 生成モデルは通常、画像のようなグリッドのようなデータで訓練される。
その結果、これらのモデルのサイズは通常、基礎となるグリッド解像度で直接スケーリングされます。
本稿では,離散格子を放棄し,連続関数による個々のデータポイントのパラメータ化を行う。
そして、そのような関数上の分布を学習して生成モデルを構築する。
データポイントを関数として扱うことで、トレーニングするデータの種類を抽象化し、信号の解像度や寸法とは無関係にスケールするモデルを構築できます。
モデルのトレーニングには,連続的な信号に直接作用する判別器を用いた対角的手法を用いる。
画像と3次元形状の実験により,データ型や解像度によらず,関数の豊富な分布を学習できることを実証した。
関連論文リスト
- Heat Death of Generative Models in Closed-Loop Learning [63.83608300361159]
本研究では、独自の学習データセットに加えて、生成したコンテンツをフィードバックする生成モデルの学習ダイナミクスについて検討する。
各イテレーションで十分な量の外部データが導入されない限り、非自明な温度がモデルを退化させることを示す。
論文 参考訳(メタデータ) (2024-04-02T21:51:39Z) - Diffusion with Forward Models: Solving Stochastic Inverse Problems
Without Direct Supervision [76.32860119056964]
本稿では,直接観測されない信号の分布からサンプルを学習する拡散確率モデルを提案する。
コンピュータビジョンの課題3つの課題に対して,本手法の有効性を示す。
論文 参考訳(メタデータ) (2023-06-20T17:53:00Z) - T1: Scaling Diffusion Probabilistic Fields to High-Resolution on Unified
Visual Modalities [69.16656086708291]
拡散確率場(DPF)は、距離空間上で定義された連続関数の分布をモデル化する。
本稿では,局所構造学習に着目したビューワイズサンプリングアルゴリズムによる新しいモデルを提案する。
モデルは、複数のモダリティを統一しながら、高解像度のデータを生成するためにスケールすることができる。
論文 参考訳(メタデータ) (2023-05-24T03:32:03Z) - Diffusion Generative Models in Infinite Dimensions [10.15736468214228]
拡散生成モデルを一般化して関数空間で直接操作する。
関数空間の観点の大きな利点は、開発中の関数空間を明示的に指定できることです。
提案手法により,関数値データの条件付き生成と条件付き生成を両立させることができる。
論文 参考訳(メタデータ) (2022-12-01T21:54:19Z) - OCD: Learning to Overfit with Conditional Diffusion Models [95.1828574518325]
入力サンプルxに重みを条件付けした動的モデルを提案する。
基本モデルを x とそのラベル y 上で微調整することで得られる重みに一致することを学習する。
論文 参考訳(メタデータ) (2022-10-02T09:42:47Z) - Modelling nonlinear dependencies in the latent space of inverse
scattering [1.5990720051907859]
アングルとマラートによって提案された逆散乱では、ディープニューラルネットワークが画像に適用された散乱変換を反転するように訓練される。
このようなネットワークをトレーニングした後、散乱係数の主成分分布から標本化できることから、生成モデルとして利用することができる。
本稿では,2つのモデル,すなわち変分オートエンコーダと生成逆数ネットワークについて検討する。
論文 参考訳(メタデータ) (2022-03-19T12:07:43Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - S3VAE: Self-Supervised Sequential VAE for Representation Disentanglement
and Data Generation [31.38329747789168]
自己超越下での逐次データの不整合表現を学習するための逐次変分オートエンコーダを提案する。
我々は、入力データ自体から容易にアクセス可能な監視信号や、市販の機能モデルから得られる利点を利用する。
我々のモデルは入力シーケンスの表現を静的因子と動的因子に容易に切り離すことができる。
論文 参考訳(メタデータ) (2020-05-23T00:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。