論文の概要: Generative Adversarial Neural Operators
- arxiv url: http://arxiv.org/abs/2205.03017v1
- Date: Fri, 6 May 2022 05:12:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 14:28:12.406627
- Title: Generative Adversarial Neural Operators
- Title(参考訳): 生成的対向ニューラル演算子
- Authors: Md Ashiqur Rahman, Manuel A. Florez, Anima Anandkumar, Zachary E.
Ross, Kamyar Azizzadenesheli
- Abstract要約: 本稿では,無限次元関数空間上の確率学習のための生成モデルであるGANOを提案する。
GANOは、ジェネレータニューラル演算子と識別器ニューラル関数の2つの主要成分から構成される。
入力関数と出力関数が共に GRF からのサンプルである場合のGANO を実験的に検討し、その性能を有限次元の GAN と比較する。
- 参考スコア(独自算出の注目度): 59.21759531471597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose the generative adversarial neural operator (GANO), a generative
model paradigm for learning probabilities on infinite-dimensional function
spaces. The natural sciences and engineering are known to have many types of
data that are sampled from infinite-dimensional function spaces, where
classical finite-dimensional deep generative adversarial networks (GANs) may
not be directly applicable. GANO generalizes the GAN framework and allows for
the sampling of functions by learning push-forward operator maps in
infinite-dimensional spaces. GANO consists of two main components, a generator
neural operator and a discriminator neural functional. The inputs to the
generator are samples of functions from a user-specified probability measure,
e.g., Gaussian random field (GRF), and the generator outputs are synthetic data
functions. The input to the discriminator is either a real or synthetic data
function. In this work, we instantiate GANO using the Wasserstein criterion and
show how the Wasserstein loss can be computed in infinite-dimensional spaces.
We empirically study GANOs in controlled cases where both input and output
functions are samples from GRFs and compare its performance to the
finite-dimensional counterpart GAN. We empirically study the efficacy of GANO
on real-world function data of volcanic activities and show its superior
performance over GAN. Furthermore, we find that for the function-based data
considered, GANOs are more stable to train than GANs and require less
hyperparameter optimization.
- Abstract(参考訳): 本稿では,無限次元関数空間における確率学習のための生成モデルパラダイムであるgano(generative adversarial neural operator)を提案する。
自然科学と工学は無限次元関数空間からサンプリングされる多くの種類のデータを持つことが知られており、古典的な有限次元深層生成逆数ネットワーク(GAN)は直接適用できない。
GANOはGANフレームワークを一般化し、無限次元空間におけるプッシュフォワード作用素写像を学習することで関数のサンプリングを可能にする。
GANOは、ジェネレータニューラル演算子と識別器ニューラル関数の2つの主要成分からなる。
生成器への入力は、例えば、ガウス確率場(grf)のようなユーザ特定確率測度からの関数のサンプルであり、生成器出力は合成データ関数である。
判別器への入力は、実データ関数または合成データ関数である。
本研究では,wasserstein の基準を用いて gano をインスタンス化し,wasserstein の損失を無限次元空間でどのように計算できるかを示す。
入力関数と出力関数が共に GRF からのサンプルである場合のGANO を実験的に検討し、その性能を有限次元の GAN と比較する。
本研究では, GANOが火山活動の実際の機能データに与える影響を実証的に研究し, GANよりも優れた性能を示した。
さらに,関数に基づくデータを考えると,GANOはGANよりも訓練が安定であり,ハイパーパラメータ最適化が不要であることがわかった。
関連論文リスト
- Composite Bayesian Optimization In Function Spaces Using NEON -- Neural Epistemic Operator Networks [4.1764890353794994]
NEONは、単一のオペレータネットワークバックボーンを使用して不確実性のある予測を生成するアーキテクチャである。
NEONは、トレーニング可能なパラメータを桁違いに減らしながら、最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-04-03T22:42:37Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Functional Linear Non-Gaussian Acyclic Model for Causal Discovery [7.303542369216906]
我々は、fMRIとEEGデータセットを含む脳効果接続タスクにおける因果関係を識別するフレームワークを開発する。
非ガウス確率ベクトルと無限次元ヒルベルト空間のランダム関数の間の因果関係の同定可能性の理論的保証を確立する。
実データでは、fMRIデータから得られる脳の接続パターンを分析することに重点を置いている。
論文 参考訳(メタデータ) (2024-01-17T23:27:48Z) - D2NO: Efficient Handling of Heterogeneous Input Function Spaces with
Distributed Deep Neural Operators [7.119066725173193]
異種性を示す入力関数を扱うための新しい分散手法を提案する。
中央ニューラルネットワークは、すべての出力関数間で共有情報を処理するために使用される。
ニューラルネットワークが連続非線形作用素の普遍近似であることを示す。
論文 参考訳(メタデータ) (2023-10-29T03:29:59Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - Your GAN is Secretly an Energy-based Model and You Should use
Discriminator Driven Latent Sampling [106.68533003806276]
本研究では,潜時空間におけるサンプリングは,潜時空間の前対数密度と判別器出力スコアの和によって誘導されるエネルギーベースモデルに従って,潜時空間におけるサンプリングを行うことによって達成できることを示す。
判別器駆動潜時サンプリング(DDLS)は,高次元画素空間で動作する従来の手法と比較して,高効率であることを示す。
論文 参考訳(メタデータ) (2020-03-12T23:33:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。