論文の概要: Autoencoding for the 'Good Dictionary' of eigen pairs of the Koopman
Operator
- arxiv url: http://arxiv.org/abs/2306.05224v1
- Date: Thu, 8 Jun 2023 14:21:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 14:06:56.199662
- Title: Autoencoding for the 'Good Dictionary' of eigen pairs of the Koopman
Operator
- Title(参考訳): クープマン作用素の固有対の「Good Dictionary」の自動符号化
- Authors: Neranjaka Jayarathne and Erik M. Bollt
- Abstract要約: 本論文では,深層学習手法であるディープオートエンコーダを用いて,コープマン固有ベクトルの計算に先立って,生データ上に非線形な幾何変換を行う。
高次元時系列データを扱うために、Takesの時間遅延埋め込みを前処理技術として提示する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reduced order modelling relies on representing complex dynamical systems
using simplified modes, which can be achieved through Koopman operator
analysis. However, computing Koopman eigen pairs for high-dimensional
observable data can be inefficient. This paper proposes using deep
autoencoders, a type of deep learning technique, to perform non-linear
geometric transformations on raw data before computing Koopman eigen vectors.
The encoded data produced by the deep autoencoder is diffeomorphic to a
manifold of the dynamical system, and has a significantly lower dimension than
the raw data. To handle high-dimensional time series data, Takens's time delay
embedding is presented as a pre-processing technique. The paper concludes by
presenting examples of these techniques in action.
- Abstract(参考訳): 縮小順序モデリングは、単純化されたモードを使って複雑な力学系を表現することに依存している。
しかし、高次元可観測データに対するクープマン固有ペアの計算は非効率である。
本論文では,深層学習手法であるディープオートエンコーダを用いて,コープマン固有ベクトルの計算に先立って,生データ上に非線形な幾何変換を行う。
ディープオートエンコーダによって生成された符号化データは、力学系の多様体に微分され、原データよりもかなり低次元である。
高次元時系列データを扱うために、テイクスの時間遅延埋め込みを前処理技術として提示する。
論文は、これらのテクニックの例を実演して締めくくっている。
関連論文リスト
- The Persian Rug: solving toy models of superposition using large-scale symmetries [0.0]
入力次元が大きければ最小限の非線形スパースデータオートエンコーダによって学習されたアルゴリズムの完全なメカニスティック記述を示す。
我々の研究は、オートエンコーダの構造を理解する技術を導入することによって、ニューラルネットワークの解釈可能性に貢献している。
論文 参考訳(メタデータ) (2024-10-15T22:52:45Z) - Compression of the Koopman matrix for nonlinear physical models via hierarchical clustering [0.0]
クープマン作用素の線型特性は非線形力学を理解することを希望する。
本研究では,階層クラスタリングを用いてクープマン行列を圧縮する手法を提案する。
論文 参考訳(メタデータ) (2024-03-27T01:18:00Z) - HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text
Extractive Summarization [57.798070356553936]
HETFORMERはトランスフォーマーをベースとした事前学習モデルであり、抽出要約のための多粒度スパースアテンションを持つ。
単一文書と複数文書の要約タスクの実験から,HETFORMERがルージュF1の最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2021-10-12T22:42:31Z) - Deep Identification of Nonlinear Systems in Koopman Form [0.0]
本論文では,クープマンに基づく深部状態空間エンコーダを用いた非線形力学系の同定について述べる。
揚力モデル構造には入力-アフィンの定式化が考慮され, 完全状態と部分状態の両方に対処する。
論文 参考訳(メタデータ) (2021-10-06T08:50:56Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Multivariate Temporal Autoencoder for Predictive Reconstruction of Deep
Sequences [0.0]
時系列の予測とモデリングは、実世界のデータセットにおいて挑戦的な試みであることが証明されている。
2つの重要な問題は、データの多次元性と、遅延出力信号を形成する独立次元の相互作用である。
本稿では,データウィンドウの潜在状態ベクトル表現をモデル化することにより,上記の問題に対処するためのマルチブランチディープニューラルネットワーク手法を提案する。
論文 参考訳(メタデータ) (2020-10-07T21:25:35Z) - Cross-Thought for Sentence Encoder Pre-training [89.32270059777025]
Cross-Thoughtは、事前トレーニングシーケンスエンコーダに対する新しいアプローチである。
我々は、Transformerベースのシーケンスエンコーダを、多数の短いシーケンスに対してトレーニングする。
質問応答とテキストのエンコーダタスクの実験は、事前学習したエンコーダが最先端のエンコーダより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-07T21:02:41Z) - Representation Learning for Sequence Data with Deep Autoencoding
Predictive Components [96.42805872177067]
本稿では,シーケンスデータの有用な表現が潜在空間における単純な構造を示すべきという直感に基づく,シーケンスデータの自己教師型表現学習法を提案する。
我々は,過去と将来のウィンドウ間の相互情報である潜在特徴系列の予測情報を最大化することにより,この潜時構造を奨励する。
提案手法は,ノイズの多い動的システムの潜時空間を復元し,タスク予測のための予測特徴を抽出し,エンコーダを大量の未ラベルデータで事前訓練する場合に音声認識を改善する。
論文 参考訳(メタデータ) (2020-10-07T03:34:01Z) - Gradient Origin Networks [8.952627620898074]
本稿では,エンコーダを使わずに潜在表現を素早く学習できる新しい生成モデルを提案する。
実験により,提案手法は自己エンコーダよりも高速に収束し,パラメータの半分を必要としながら再構成誤差が著しく低いことがわかった。
論文 参考訳(メタデータ) (2020-07-06T15:00:11Z) - Forecasting Sequential Data using Consistent Koopman Autoencoders [52.209416711500005]
クープマン理論に関連する新しい物理学に基づく手法が導入された。
本稿では,既存の作業の多くと異なり,前方・後方のダイナミクスを生かした新しいコンシスタント・クープマン・オートエンコーダモデルを提案する。
このアプローチの鍵となるのは、一貫性のある力学と関連するクープマン作用素との相互作用を探索する新しい解析である。
論文 参考訳(メタデータ) (2020-03-04T18:24:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。