論文の概要: Learning Invariant Subspaces of Koopman Operators--Part 2: Heterogeneous
Dictionary Mixing to Approximate Subspace Invariance
- arxiv url: http://arxiv.org/abs/2212.07365v1
- Date: Wed, 14 Dec 2022 17:40:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 18:10:04.253882
- Title: Learning Invariant Subspaces of Koopman Operators--Part 2: Heterogeneous
Dictionary Mixing to Approximate Subspace Invariance
- Title(参考訳): クープマン作用素の学習不変部分空間-その2:近似部分空間不変量に対する不均一辞書混合
- Authors: Charles A. Johnson, Shara Balakrishnan and Enoch Yeung
- Abstract要約: この研究は、データからクープマン作用素の近似辞書表現を学ぶために、パート1で提示されたモデルと概念に基づいている。
ヘテロジニアス辞書関数の構造化混合はディープラーニングに基づくディープDMDアルゴリズムと同じ精度と次元のスケーリングを実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work builds on the models and concepts presented in part 1 to learn
approximate dictionary representations of Koopman operators from data. Part I
of this paper presented a methodology for arguing the subspace invariance of a
Koopman dictionary. This methodology was demonstrated on the state-inclusive
logistic lifting (SILL) basis. This is an affine basis augmented with
conjunctive logistic functions. The SILL dictionary's nonlinear functions are
homogeneous, a norm in data-driven dictionary learning of Koopman operators. In
this paper, we discover that structured mixing of heterogeneous dictionary
functions drawn from different classes of nonlinear functions achieve the same
accuracy and dimensional scaling as the deep-learning-based deepDMD algorithm.
We specifically show this by building a heterogeneous dictionary comprised of
SILL functions and conjunctive radial basis functions (RBFs). This mixed
dictionary achieves the same accuracy and dimensional scaling as deepDMD with
an order of magnitude reduction in parameters, while maintaining geometric
interpretability. These results strengthen the viability of dictionary-based
Koopman models to solving high-dimensional nonlinear learning problems.
- Abstract(参考訳): この研究は、データからクープマン作用素の近似辞書表現を学ぶために、パート1で提示されたモデルと概念に基づいている。
この論文の第1部では、コープマン辞書の部分空間不変性について議論する方法論を提示した。
この手法はsill(state-inclusive logistic lifting)ベースで実証された。
これは連結ロジスティック関数で拡張されたアフィン基底である。
SILL辞書の非線形関数は同質であり、クープマン作用素のデータ駆動辞書学習の標準である。
本稿では,非線形関数の異なるクラスから導かれる異種辞書関数の構造的混合が,ディープラーニングに基づくdeepdmdアルゴリズムと同じ精度と次元スケーリングを実現することを見出した。
具体的には、SILL関数と共役ラジアル基底関数(RBF)からなるヘテロジニアス辞書を構築することでこれを具体的に示す。
この混合辞書は、幾何学的解釈可能性を維持しつつ、パラメータの桁数の縮小でディープDMDと同じ精度と次元のスケーリングを実現する。
これらの結果は,高次元非線形学習問題を解くために辞書ベースのkoopmanモデルの有効性を高める。
関連論文リスト
- Symmetry Discovery for Different Data Types [52.2614860099811]
等価ニューラルネットワークは、そのアーキテクチャに対称性を取り入れ、より高度な一般化性能を実現する。
本稿では,タスクの入出力マッピングを近似したトレーニングニューラルネットワークによる対称性発見手法であるLieSDを提案する。
我々は,2体問題,慣性行列予測のモーメント,トップクォークタグ付けといった課題におけるLieSDの性能を検証した。
論文 参考訳(メタデータ) (2024-10-13T13:39:39Z) - A Lightweight Randomized Nonlinear Dictionary Learning Method using Random Vector Functional Link [0.6138671548064356]
本稿では,ランダムベクトル関数リンク(RVFL)と呼ばれるランダム化関数リンクを用いて,非線形辞書を学習するためのSVDフリー軽量アプローチを提案する。
提案したRVFLに基づく非線形辞書学習(RVFLDL)は,非線形スパース係数から高密度入力特徴へのスパース・トゥ・デンス特徴写像として辞書を学習する。
画像分類および再構成アプリケーションで示される手法の実証的証拠は、RVFLDLはスケーラブルであり、他の非線形辞書学習法よりも優れた解を提供することを示している。
論文 参考訳(メタデータ) (2024-02-06T09:24:53Z) - Dictionary Learning under Symmetries via Group Representations [1.304892050913381]
あらかじめ特定された変換群の下で不変な辞書を学習する問題について検討する。
本稿では,SO(2)群とSO(3)群の辞書学習問題を調査するために,本パラダイムを適用した。
論文 参考訳(メタデータ) (2023-05-31T04:54:06Z) - Learning Invariant Subspaces of Koopman Operators--Part 1: A Methodology
for Demonstrating a Dictionary's Approximate Subspace Invariance [0.0]
拡張動的モード分解アルゴリズムでは、辞書関数は固定クラスの関数から引き出される。
深層動的モード分解(deepDMD)と呼ばれるアルゴリズムにおいて、深層学習とEDMDを組み合わせた新しい辞書関数の学習に使われている。
本稿では,DeepDMDから学習辞書を解析し,その性能に関する理論的基礎を探る。
論文 参考訳(メタデータ) (2022-12-14T17:33:52Z) - Hierarchical Phrase-based Sequence-to-Sequence Learning [94.10257313923478]
本稿では、学習中の帰納バイアスの源として階層的フレーズを取り入れ、推論中の明示的な制約として、標準的なシーケンス・ツー・シーケンス(seq2seq)モデルの柔軟性を維持するニューラルトランスデューサについて述べる。
本手法では,木が原文と対象句を階層的に整列するブラケット文法に基づく識別的導出法と,整列した句を1対1で翻訳するニューラルネットワークセク2セックモデルという2つのモデルを訓練する。
論文 参考訳(メタデータ) (2022-11-15T05:22:40Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Heterogeneous mixtures of dictionary functions to approximate subspace
invariance in Koopman operators [0.0]
深層動的モード分解(deepDMD)と呼ばれるアルゴリズムにおいて、深層学習とEDMDを組み合わせた新しい辞書関数の学習に使われている。
クープマン可観測関数を近似する新しい辞書関数のクラスを発見する。
この結果は,クープマン演算子に対する数値近似学習におけるディープニューラルネットワークの成功を説明する仮説を提供する。
論文 参考訳(メタデータ) (2022-06-27T19:04:03Z) - Generalizing Dynamic Mode Decomposition: Balancing Accuracy and
Expressiveness in Koopman Approximations [0.0]
本論文では、Koopman-oper 法を用いて未知の力学系のデータ駆動近似に取り組む。
辞書を改良するTunable Symmetric Subspace Decompositionアルゴリズムを提案する。
本稿では,アルゴリズム特性の完全な特徴付けを行い,拡張動的モード分解と対称部分空間分解の両方を一般化することを示す。
論文 参考訳(メタデータ) (2021-08-08T19:11:41Z) - Estimating Koopman operators for nonlinear dynamical systems: a
nonparametric approach [77.77696851397539]
Koopman演算子は非線形系の線形記述を可能にする数学的ツールである。
本稿では,その核となる部分を同一フレームワークのデュアルバージョンとして捉え,それらをカーネルフレームワークに組み込む。
カーネルメソッドとKoopman演算子との強力なリンクを確立し、Kernel関数を通じて後者を推定する。
論文 参考訳(メタデータ) (2021-03-25T11:08:26Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Anchor & Transform: Learning Sparse Embeddings for Large Vocabularies [60.285091454321055]
我々は,アンカー埋め込みとスパース変換行列の小さな組を学習する,単純で効率的な埋め込みアルゴリズムを設計する。
テキスト分類、言語モデリング、映画レコメンデーションのベンチマークでは、ANTは大きな語彙サイズに特に適していることが示されている。
論文 参考訳(メタデータ) (2020-03-18T13:07:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。