論文の概要: Data-driven reduced order models using invariant foliations, manifolds
and autoencoders
- arxiv url: http://arxiv.org/abs/2206.12269v1
- Date: Fri, 24 Jun 2022 13:01:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-03 12:08:21.959475
- Title: Data-driven reduced order models using invariant foliations, manifolds
and autoencoders
- Title(参考訳): 不変葉、多様体およびオートエンコーダを用いたデータ駆動還元次数モデル
- Authors: Robert Szalai
- Abstract要約: データとモデルを関連付けるには3つの方法がある:不変葉分、不変多様体、オートエンコーダ。
不変葉分を見つけるには高次元関数を近似する必要がある。
2つの方法を組み合わせることで、正確な還元次数モデルと不変多様体を見つけることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper explores the question: how to identify a reduced order model from
data. There are three ways to relate data to a model: invariant foliations,
invariant manifolds and autoencoders. Invariant manifolds cannot be fitted to
data unless a hardware in a loop system is used. Autoencoders only identify the
portion of the phase space where the data is, which is not necessarily an
invariant manifold. Therefore for off-line data the only option is an invariant
foliation. We note that Koopman eigenfunctions also define invariant
foliations, but they are limited by the assumption of linearity and resulting
singularites. Finding an invariant foliation requires approximating
high-dimensional functions. We propose two solutions. If an accurate reduced
order model is sought, a sparse polynomial approximation is used, with
polynomial coefficients that are sparse hierarchical tensors. If an invariant
manifold is sought, as a leaf of a foliation, the required high-dimensional
function can be approximated by a low-dimensional polynomial. The two methods
can be combined to find an accurate reduced order model and an invariant
manifold. We also analyse the reduced order model in case of a focus type
equilibrium, typical in mechanical systems. We note that the nonlinear
coordinate system defined by the invariant foliation and the invariant manifold
distorts instantaneous frequencies and damping ratios, which we correct.
Through examples we illustrate the calculation of invariant foliations and
manifolds, and at the same time show that Koopman eigenfunctions and
autoencoders fail to capture accurate reduced order models under the same
conditions.
- Abstract(参考訳): 本稿では、データから減じられた注文モデルを特定する方法について検討する。
データとモデルを関連付けるには3つの方法がある:不変葉分、不変多様体、オートエンコーダ。
不変多様体は、ループシステムのハードウェアが使用されない限り、データに適合できない。
オートエンコーダはデータが存在する位相空間の部分のみを識別するが、これは必ずしも不変多様体ではない。
したがって、オフラインデータの場合、唯一の選択肢は不変葉である。
クープマン固有函数もまた不変葉分を定義するが、それらは線型性と結果として生じる特異点の仮定によって制限される。
不変葉分を見つけるには高次元関数を近似する必要がある。
我々は2つの解決策を提案する。
正確な還元次数モデルを求める場合は、疎階層テンソルである多項式係数を用いてスパース多項式近似を用いる。
不変多様体を求める場合、葉の葉として必要となる高次元関数は低次元多項式によって近似することができる。
2つの方法を組み合わせることで、正確な還元次数モデルと不変多様体を見つけることができる。
また,機械系において典型的なフォーカス型平衡の場合の還元次数モデルを解析した。
不変葉分と不変多様体によって定義される非線形座標系は瞬時周波数と減衰率を歪め、補正する。
例を通して、不変な葉と多様体の計算を説明し、同時にクープマン固有関数とオートエンコーダが同じ条件下で正確な縮小順序モデルを捉えることができないことを示す。
関連論文リスト
- Preventing Model Collapse in Gaussian Process Latent Variable Models [11.45681373843122]
本稿では,線形フーリエVMのレンズによるモデル崩壊に対する射影分散の影響を理論的に検討する。
我々は、スペクトル混合(SM)カーネルと微分可能乱数特徴(RFF)カーネル近似を統合することにより、カーネルの柔軟性が不十分なため、モデル崩壊に取り組む。
提案したVMは、アドバイスRFLVMと呼ばれ、さまざまなデータセットで評価され、さまざまな競合モデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2024-04-02T06:58:41Z) - Machine-learning invariant foliations in forced systems for reduced order modelling [0.0]
Invariant foliation を用いたデータから強制システムのリダクションオーダーモデル (ROM) を同定する。
強制は外部、パラメトリック、周期的または準周期的である。
我々は、不変多様体と葉のいくつかの基本的な制限を強調し、それをデータに適合させる際には、さらなる数学的な解決が必要である。
論文 参考訳(メタデータ) (2024-03-21T16:10:42Z) - Posterior Collapse and Latent Variable Non-identifiability [54.842098835445]
柔軟性を犠牲にすることなく識別性を強制する深層生成モデルである,潜時同定可能な変分オートエンコーダのクラスを提案する。
合成および実データ全体にわたって、潜在識別可能な変分オートエンコーダは、後方崩壊を緩和し、データの有意義な表現を提供する既存の方法より優れている。
論文 参考訳(メタデータ) (2023-01-02T06:16:56Z) - Diffusion models as plug-and-play priors [98.16404662526101]
我々は、事前の$p(mathbfx)$と補助的な制約である$c(mathbfx,mathbfy)$からなるモデルにおいて、高次元データ$mathbfx$を推論する問題を考える。
拡散モデルの構造は,異なるノイズ量に富んだ定性デノナイジングネットワークを通じて,微分を反復することで近似推論を行うことができる。
論文 参考訳(メタデータ) (2022-06-17T21:11:36Z) - Low Dimensional Invariant Embeddings for Universal Geometric Learning [6.405957390409045]
本稿では、適切な群作用に不変で、どの軌道を分離するかという、不変量:$D$次元領域上の写像について研究する。
この研究の動機は、同変ニューラルネットワークアーキテクチャの普遍性を証明するために不変量を分離することの有用性にある。
論文 参考訳(メタデータ) (2022-05-05T22:56:19Z) - Relaxing Equivariance Constraints with Non-stationary Continuous Filters [20.74154804898478]
提案したパラメータ化は、ニューラルネットワークの調整可能な対称性構造を可能にするビルディングブロックと考えることができる。
CIFAR-10 および CIFAR-100 画像分類タスクにおいて, ソフトな等式が試験精度の向上につながることを実験的に検証した。
論文 参考訳(メタデータ) (2022-04-14T18:08:36Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - GeoDiff: a Geometric Diffusion Model for Molecular Conformation
Generation [102.85440102147267]
分子配座予測のための新しい生成モデルGeoDiffを提案する。
GeoDiffは、既存の最先端のアプローチよりも優れているか、あるいは同等であることを示す。
論文 参考訳(メタデータ) (2022-03-06T09:47:01Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Learning with invariances in random features and kernel models [19.78800773518545]
モデルには不変な乱数特徴と不変なカーネルメソッドの2つのクラスを導入する。
サンプルサイズと非表示単位の数が寸法の推定値としてスケールする高次元状態における不変メソッドのテスト誤差を特徴づける。
アーキテクチャにおける不変性を利用すると、サンプルサイズの$dalpha$ factor($d$は次元を表す)と、非構造化アーキテクチャと同じテストエラーを達成するために隠されたユニットの数を節約できることを示す。
論文 参考訳(メタデータ) (2021-02-25T23:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。