論文の概要: NOMAD: Nonlinear Manifold Decoders for Operator Learning
- arxiv url: http://arxiv.org/abs/2206.03551v1
- Date: Tue, 7 Jun 2022 19:52:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-09 13:51:45.924939
- Title: NOMAD: Nonlinear Manifold Decoders for Operator Learning
- Title(参考訳): NOMAD: 演算子学習のための非線形マニフォールドデコーダ
- Authors: Jacob H. Seidman, Georgios Kissas, Paris Perdikaris, George J. Pappas
- Abstract要約: 関数空間における教師付き学習は、機械学習研究の新たな領域である。
関数空間における非線形部分多様体の有限次元表現を学習できる非線形デコーダマップを備えた新しい演算子学習フレームワークであるNOMADについて述べる。
- 参考スコア(独自算出の注目度): 17.812064311297117
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Supervised learning in function spaces is an emerging area of machine
learning research with applications to the prediction of complex physical
systems such as fluid flows, solid mechanics, and climate modeling. By directly
learning maps (operators) between infinite dimensional function spaces, these
models are able to learn discretization invariant representations of target
functions. A common approach is to represent such target functions as linear
combinations of basis elements learned from data. However, there are simple
scenarios where, even though the target functions form a low dimensional
submanifold, a very large number of basis elements is needed for an accurate
linear representation. Here we present NOMAD, a novel operator learning
framework with a nonlinear decoder map capable of learning finite dimensional
representations of nonlinear submanifolds in function spaces. We show this
method is able to accurately learn low dimensional representations of solution
manifolds to partial differential equations while outperforming linear models
of larger size. Additionally, we compare to state-of-the-art operator learning
methods on a complex fluid dynamics benchmark and achieve competitive
performance with a significantly smaller model size and training cost.
- Abstract(参考訳): 関数空間における教師あり学習は、流体流、固体力学、気候モデリングなどの複雑な物理システムの予測に応用される機械学習研究の新しい分野である。
無限次元関数空間間の写像(作用素)を直接学習することで、これらのモデルは対象関数の離散化不変表現を学ぶことができる。
一般的なアプローチは、そのような対象関数をデータから学習した基底要素の線形結合として表現することである。
しかし、ターゲット関数が低次元部分多様体を形成しても、正確な線形表現には非常に多くの基底要素が必要であるという単純なシナリオがある。
ここでは、非線型部分多様体の有限次元表現を関数空間で学習できる非線形デコーダマップを持つ新しい演算子学習フレームワークであるNOMADを提案する。
本手法は, 偏微分方程式に対する解多様体の低次元表現を, より大きな線形モデルよりも精度良く学習できることを示す。
さらに,複雑な流体力学ベンチマークを用いた最先端の演算子学習手法と比較し,モデルサイズとトレーニングコストを大幅に削減した競合性能を実現する。
関連論文リスト
- Functional Autoencoder for Smoothing and Representation Learning [0.0]
ニューラルネットワークオートエンコーダを用いて関数データの非線形表現を学習し、前処理を必要とせず、通常収集される形式でデータを処理する。
我々は,関数データの重み付け内積と観測タイムスタンプ上の関数重み付けを演算するプロジェクション層と,関数データから抽出した有限次元ベクトルを関数空間にマッピングする回復層をデコーダを用いて設計する。
論文 参考訳(メタデータ) (2024-01-17T08:33:25Z) - Canonical normalizing flows for manifold learning [14.377143992248222]
そこで本研究では,新しい目的によって変換行列を強制し,顕著で非退化的な基底関数をほとんど持たない正準多様体学習フロー法を提案する。
正準多様体の流れは潜在空間をより効率的に利用し、データを表現するために顕著で異なる次元を自動生成する。
論文 参考訳(メタデータ) (2023-10-19T13:48:05Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Functional Nonlinear Learning [0.0]
低次元特徴空間における多変量関数データを表現する機能非線形学習法(FunNoL)を提案する。
本研究では,FunNoLがデータ間隔によらず,良好な曲線分類と再構成を提供することを示す。
論文 参考訳(メタデータ) (2022-06-22T23:47:45Z) - Graph Embedding via High Dimensional Model Representation for
Hyperspectral Images [9.228929858529678]
リモートセンシング画像の多様体構造を学習することは、モデリングおよび理解プロセスにおける最重要事項である。
ハイパスペクトル画像解析(HSI)に対処するためのマナーラーニング手法は優れた性能を示した。
この問題に対処する一般的な仮定は、高次元の入力空間と(典型的には低い)潜在空間の間の変換が線型であるということである。
提案手法は,その線形学習法とともに多様体学習法と比較し,代表的ハイパースペクトル画像の分類精度の観点から有望な性能を実現する。
論文 参考訳(メタデータ) (2021-11-29T16:42:15Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Non-parametric Models for Non-negative Functions [48.7576911714538]
同じ良い線形モデルから非負関数に対する最初のモデルを提供する。
我々は、それが表現定理を認め、凸問題に対する効率的な二重定式化を提供することを証明した。
論文 参考訳(メタデータ) (2020-07-08T07:17:28Z) - FLAMBE: Structural Complexity and Representation Learning of Low Rank
MDPs [53.710405006523274]
この研究は、表現学習の問題に焦点を当てている。
基礎となる(未知の)力学が低階遷移行列に対応するという仮定の下で、表現学習問題と特定の非線形行列分解問題との関連性を示す。
低階遷移モデルにおけるRLの探索と表現学習を行うFLAMBEを開発した。
論文 参考訳(メタデータ) (2020-06-18T19:11:18Z) - Learning Bijective Feature Maps for Linear ICA [73.85904548374575]
画像データに適した既存の確率的深層生成モデル (DGM) は, 非線形ICAタスクでは不十分であることを示す。
そこで本研究では,2次元特徴写像と線形ICAモデルを組み合わせることで,高次元データに対する解釈可能な潜在構造を学習するDGMを提案する。
画像上のフローベースモデルや線形ICA、変分オートエンコーダよりも、高速に収束し、訓練が容易なモデルを作成し、教師なしの潜在因子発見を実現する。
論文 参考訳(メタデータ) (2020-02-18T17:58:07Z) - Invariant Feature Coding using Tensor Product Representation [75.62232699377877]
我々は,群不変特徴ベクトルが線形分類器を学習する際に十分な識別情報を含んでいることを証明した。
主成分分析やk平均クラスタリングにおいて,グループアクションを明示的に考慮する新たな特徴モデルを提案する。
論文 参考訳(メタデータ) (2019-06-05T07:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。