論文の概要: Variational Autoencoding Neural Operators
- arxiv url: http://arxiv.org/abs/2302.10351v1
- Date: Mon, 20 Feb 2023 22:34:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 16:50:40.661988
- Title: Variational Autoencoding Neural Operators
- Title(参考訳): 変分オートエンコーディングニューラル演算子
- Authors: Jacob H. Seidman, Georgios Kissas, George J. Pappas, Paris Perdikaris
- Abstract要約: 関数型データによる教師なし学習は、コンピュータビジョン、気候モデリング、物理システムへの応用を含む機械学習研究の新たなパラダイムである。
本稿では,大規模な演算子学習アーキテクチャを変分オートエンコーダとして機能させる汎用戦略として,変分オートエンコードニューラル演算子(VANO)を提案する。
- 参考スコア(独自算出の注目度): 17.812064311297117
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Unsupervised learning with functional data is an emerging paradigm of machine
learning research with applications to computer vision, climate modeling and
physical systems. A natural way of modeling functional data is by learning
operators between infinite dimensional spaces, leading to discretization
invariant representations that scale independently of the sample grid
resolution. Here we present Variational Autoencoding Neural Operators (VANO), a
general strategy for making a large class of operator learning architectures
act as variational autoencoders. For this purpose, we provide a novel rigorous
mathematical formulation of the variational objective in function spaces for
training. VANO first maps an input function to a distribution over a latent
space using a parametric encoder and then decodes a sample from the latent
distribution to reconstruct the input, as in classic variational autoencoders.
We test VANO with different model set-ups and architecture choices for a
variety of benchmarks. We start from a simple Gaussian random field where we
can analytically track what the model learns and progressively transition to
more challenging benchmarks including modeling phase separation in
Cahn-Hilliard systems and real world satellite data for measuring Earth surface
deformation.
- Abstract(参考訳): 関数型データによる教師なし学習は、コンピュータビジョン、気候モデリング、物理システムへの応用を含む機械学習研究の新たなパラダイムである。
関数データモデリングの自然な方法は、無限次元空間間の演算子を学習することで、サンプルグリッド分解とは独立にスケールする離散化不変表現をもたらす。
本稿では,大規模な演算子学習アーキテクチャを変分オートエンコーダとして機能させる一般的な戦略である,変分オートエンコードニューラルネットワーク(VANO)を提案する。
この目的のために,訓練用関数空間における変分目的の厳密な数学的定式化を提案する。
VANOはまずパラメトリックエンコーダを用いて入力関数を潜時空間上の分布にマッピングし、次に潜時分布からサンプルをデコードして、古典的変分オートエンコーダのように入力を再構成する。
様々なベンチマークの異なるモデルセットとアーキテクチャの選択でVANOをテストします。
まず、単純なガウス確率場からモデルが何を学習するかを解析的に追跡し、カーン・ヒリアード系の位相分離や地球表面の変形を測定するための実世界の衛星データを含むより困難なベンチマークへと徐々に遷移する。
関連論文リスト
- Autoencoders in Function Space [5.558412940088621]
本稿では,オートエンコーダ (FAE) と可変オートエンコーダ (FVAE) の関数空間バージョンを紹介する。
FAEの目的はより広く有効であり、微分方程式によって支配されるデータに直接適用することができる。
これらの目的を任意のメッシュで評価可能なニューラル演算子アーキテクチャで達成することで、オートエンコーダの新たな応用により、科学的データの着色、超解像化、生成モデリングが可能になる。
論文 参考訳(メタデータ) (2024-08-02T16:13:51Z) - From system models to class models: An in-context learning paradigm [0.0]
本稿では,1段階の予測と複数段階のシミュレーションという2つの主要な課題に対処する,システム識別のための新しいパラダイムを提案する。
動的システムのクラスを表すメタモデルを学ぶ。
一段階の予測では、GPTのようなデコーダのみのアーキテクチャを使用し、シミュレーション問題ではエンコーダ-デコーダ構造を用いる。
論文 参考訳(メタデータ) (2023-08-25T13:50:17Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Learning Active Subspaces and Discovering Important Features with Gaussian Radial Basis Functions Neural Networks [0.0]
モデルの訓練が完了すると抽出できる精度行列のスペクトルに含まれる貴重な情報を示す。
回帰,分類,特徴選択タスクの数値実験を行った。
その結果,提案モデルが競合モデルに比べて魅力的な予測性能が得られるだけでなく,予測性能も向上することが示唆された。
論文 参考訳(メタデータ) (2023-07-11T09:54:30Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - RDA-INR: Riemannian Diffeomorphic Autoencoding via Implicit Neural Representations [3.9858496473361402]
本研究では,ニューラルネットワークに基づくアトラス構築の限界と統計的潜在モデリング手法に焦点をあてる。
我々は、解像度非依存の暗黙的ニューラル表現に基づく新しいエンコーダを設計することで、この制限を克服する。
論文 参考訳(メタデータ) (2023-05-22T09:27:17Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Lorentz group equivariant autoencoders [6.858459233149096]
Lorentz group autoencoder (LGAE)
正規直交ローレンツ群 $mathrmSO+(2,1)$ に対して自己エンコーダモデル同型を開発する。
我々はLHCのジェット機のアーキテクチャと実験結果を示し、いくつかの圧縮、再構成、異常検出の指標に基づいて、グラフと畳み込みニューラルネットワークのベースラインモデルより優れています。
論文 参考訳(メタデータ) (2022-12-14T17:19:46Z) - On the Forward Invariance of Neural ODEs [92.07281135902922]
本稿では,ニューラル常微分方程式(ODE)が出力仕様を満たすことを保証するための新しい手法を提案する。
提案手法では,出力仕様を学習システムのパラメータや入力の制約に変換するために,制御障壁関数のクラスを用いる。
論文 参考訳(メタデータ) (2022-10-10T15:18:28Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。