論文の概要: Generative Models as Distributions of Functions
- arxiv url: http://arxiv.org/abs/2102.04776v1
- Date: Tue, 9 Feb 2021 11:47:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 15:19:15.960487
- Title: Generative Models as Distributions of Functions
- Title(参考訳): 関数の分布としての生成モデル
- Authors: Emilien Dupont, Yee Whye Teh, Arnaud Doucet
- Abstract要約: 生成モデルは一般的に、画像のようなグリッドのようなデータに基づいて訓練される。
本稿では,離散格子を放棄し,連続関数による個々のデータポイントのパラメータ化を行う。
- 参考スコア(独自算出の注目度): 72.2682083758999
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models are typically trained on grid-like data such as images. As
a result, the size of these models usually scales directly with the underlying
grid resolution. In this paper, we abandon discretized grids and instead
parameterize individual data points by continuous functions. We then build
generative models by learning distributions over such functions. By treating
data points as functions, we can abstract away from the specific type of data
we train on and construct models that scale independently of signal resolution
and dimension. To train our model, we use an adversarial approach with a
discriminator that acts directly on continuous signals. Through experiments on
both images and 3D shapes, we demonstrate that our model can learn rich
distributions of functions independently of data type and resolution.
- Abstract(参考訳): 生成モデルは通常、画像のようなグリッドのようなデータで訓練される。
その結果、これらのモデルのサイズは通常、基礎となるグリッド解像度で直接スケーリングされます。
本稿では,離散格子を放棄し,連続関数による個々のデータポイントのパラメータ化を行う。
そして、そのような関数上の分布を学習して生成モデルを構築する。
データポイントを関数として扱うことで、トレーニングするデータの種類を抽象化し、信号の解像度や寸法とは無関係にスケールするモデルを構築できます。
モデルのトレーニングには,連続的な信号に直接作用する判別器を用いた対角的手法を用いる。
画像と3次元形状の実験により,データ型や解像度によらず,関数の豊富な分布を学習できることを実証した。
関連論文リスト
- Diffusion with Forward Models: Solving Stochastic Inverse Problems
Without Direct Supervision [76.32860119056964]
本稿では,直接観測されない信号の分布からサンプルを学習する拡散確率モデルを提案する。
コンピュータビジョンの課題3つの課題に対して,本手法の有効性を示す。
論文 参考訳(メタデータ) (2023-06-20T17:53:00Z) - T1: Scaling Diffusion Probabilistic Fields to High-Resolution on Unified
Visual Modalities [69.16656086708291]
拡散確率場(DPF)は、距離空間上で定義された連続関数の分布をモデル化する。
本稿では,局所構造学習に着目したビューワイズサンプリングアルゴリズムによる新しいモデルを提案する。
モデルは、複数のモダリティを統一しながら、高解像度のデータを生成するためにスケールすることができる。
論文 参考訳(メタデータ) (2023-05-24T03:32:03Z) - Diffusion Generative Models in Infinite Dimensions [10.15736468214228]
拡散生成モデルを一般化して関数空間で直接操作する。
関数空間の観点の大きな利点は、開発中の関数空間を明示的に指定できることです。
提案手法により,関数値データの条件付き生成と条件付き生成を両立させることができる。
論文 参考訳(メタデータ) (2022-12-01T21:54:19Z) - OCD: Learning to Overfit with Conditional Diffusion Models [95.1828574518325]
入力サンプルxに重みを条件付けした動的モデルを提案する。
基本モデルを x とそのラベル y 上で微調整することで得られる重みに一致することを学習する。
論文 参考訳(メタデータ) (2022-10-02T09:42:47Z) - Can Push-forward Generative Models Fit Multimodal Distributions? [3.8615905456206256]
生成ネットワークのリプシッツ定数はマルチモーダル分布に適合するために大きくなければならないことを示す。
本研究では,1次元および画像のデータセットを用いて,各ステップで入力されたスタックネットワークからなる生成モデルがそのような制約を負わないことを実証的に検証した。
論文 参考訳(メタデータ) (2022-06-29T09:03:30Z) - Modelling nonlinear dependencies in the latent space of inverse
scattering [1.5990720051907859]
アングルとマラートによって提案された逆散乱では、ディープニューラルネットワークが画像に適用された散乱変換を反転するように訓練される。
このようなネットワークをトレーニングした後、散乱係数の主成分分布から標本化できることから、生成モデルとして利用することができる。
本稿では,2つのモデル,すなわち変分オートエンコーダと生成逆数ネットワークについて検討する。
論文 参考訳(メタデータ) (2022-03-19T12:07:43Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Dataset Cartography: Mapping and Diagnosing Datasets with Training
Dynamics [118.75207687144817]
我々はデータセットを特徴付け、診断するモデルベースのツールであるData Mapsを紹介した。
私たちは、トレーニング中の個々のインスタンス上でのモデルの振る舞いという、ほとんど無視された情報のソースを活用しています。
以上の結果から,データ量から品質へのフォーカスの変化は,ロバストなモデルとアウト・オブ・ディストリビューションの一般化に繋がる可能性が示唆された。
論文 参考訳(メタデータ) (2020-09-22T20:19:41Z) - S3VAE: Self-Supervised Sequential VAE for Representation Disentanglement
and Data Generation [31.38329747789168]
自己超越下での逐次データの不整合表現を学習するための逐次変分オートエンコーダを提案する。
我々は、入力データ自体から容易にアクセス可能な監視信号や、市販の機能モデルから得られる利点を利用する。
我々のモデルは入力シーケンスの表現を静的因子と動的因子に容易に切り離すことができる。
論文 参考訳(メタデータ) (2020-05-23T00:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。