論文の概要: Learning Dynamical Systems from Data: A Simple Cross-Validation
Perspective, Part V: Sparse Kernel Flows for 132 Chaotic Dynamical Systems
- arxiv url: http://arxiv.org/abs/2301.10321v1
- Date: Tue, 24 Jan 2023 21:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-26 16:23:36.481433
- Title: Learning Dynamical Systems from Data: A Simple Cross-Validation
Perspective, Part V: Sparse Kernel Flows for 132 Chaotic Dynamical Systems
- Title(参考訳): データから動的システムを学習する: 単純なクロスバリデーションの観点から : 第5報 132カオス力学系のためのスパースカーネルフロー
- Authors: Lu Yang and Xiuwen Sun and Boumediene Hamzi and Houman Owhadi and
Naiming Xie
- Abstract要約: 本稿では,カーネルの大きな辞書から始めることで,最良カーネルを学習するために,emphSparse Kernel Flows法を提案する。
このアプローチをカオスシステム132のライブラリに適用する。
- 参考スコア(独自算出の注目度): 5.124035247669094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regressing the vector field of a dynamical system from a finite number of
observed states is a natural way to learn surrogate models for such systems. A
simple and interpretable way to learn a dynamical system from data is to
interpolate its vector-field with a data-adapted kernel which can be learned by
using Kernel Flows. The method of Kernel Flows is a trainable machine learning
method that learns the optimal parameters of a kernel based on the premise that
a kernel is good if there is no significant loss in accuracy if half of the
data is used. The objective function could be a short-term prediction or some
other objective for other variants of Kernel Flows). However, this method is
limited by the choice of the base kernel. In this paper, we introduce the
method of \emph{Sparse Kernel Flows } in order to learn the ``best'' kernel by
starting from a large dictionary of kernels. It is based on sparsifying a
kernel that is a linear combination of elemental kernels. We apply this
approach to a library of 132 chaotic systems.
- Abstract(参考訳): 有限個の観測状態から力学系のベクトル場を回帰することは、そのような系の代理モデルを学ぶ自然な方法である。
データから力学系を学ぶためのシンプルで解釈可能な方法は、そのベクトル場をカーネルフローを使って学習できるデータ適応カーネルと補間することである。
Kernel Flowsの方法は、カーネルの最適パラメータを、半分のデータを使用すると精度が著しく低下しない場合、カーネルが良いという前提に基づいて学習する訓練可能な機械学習手法である。
目的関数は短期的な予測か、他のカーネルフローの変種に対する他の目的かもしれない。
しかし、この方法はベースカーネルの選択によって制限される。
本稿では,カーネルの大辞典を出発点として,カーネルの ``best'' を学習するために, \emph{sparse kernel flow } の手法を提案する。
これは、要素核の線形結合であるカーネルのスパース化に基づいている。
このアプローチを132のカオスシステムのライブラリに適用する。
関連論文リスト
- Kernel Sum of Squares for Data Adapted Kernel Learning of Dynamical Systems from Data: A global optimization approach [0.19999259391104385]
本稿では,Kernel Sum of Squares (KSOS) 法の適用について検討する。
従来のカーネルベースの手法は、最適なベースカーネルの選択とパラメータチューニングにしばしば苦労する。
KSOSは、カーネルベースのサロゲート関数を持つグローバル最適化フレームワークを活用することで、これらの問題を緩和する。
論文 参考訳(メタデータ) (2024-08-12T19:32:28Z) - RFFNet: Large-Scale Interpretable Kernel Methods via Random Fourier Features [3.0079490585515347]
RFFNetは1次最適化によってカーネルの関連性をリアルタイムで学習するスケーラブルな手法である。
提案手法はメモリフットプリントが小さく,実行時,予測誤差が低く,関連する特徴を効果的に識別できることを示す。
私たちは、Scikit-learn標準APIと結果を完全に再現するためのコードに準拠した、効率的でPyTorchベースのライブラリをユーザに提供します。
論文 参考訳(メタデータ) (2022-11-11T18:50:34Z) - Learning "best" kernels from data in Gaussian process regression. With
application to aerodynamics [0.4588028371034406]
本稿では,ガウス過程の回帰/クリギングサロゲートモデリング手法におけるカーネルの選択/設計アルゴリズムを紹介する。
アルゴリズムの最初のクラスはカーネルフローであり、機械学習の分類の文脈で導入された。
アルゴリズムの第2のクラスはスペクトル核リッジ回帰と呼ばれ、近似される関数のノルムが最小となるような「最良の」カーネルを選択することを目的としている。
論文 参考訳(メタデータ) (2022-06-03T07:50:54Z) - Neural Fields as Learnable Kernels for 3D Reconstruction [101.54431372685018]
本稿では,学習したカーネルリッジの回帰に基づいて,暗黙の3次元形状を再構成する手法を提案する。
本手法は,3次元オブジェクトと大画面をスパース指向の点から再構成する際の最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2021-11-26T18:59:04Z) - Learning dynamical systems from data: A simple cross-validation perspective, part III: Irregularly-Sampled Time Series [8.918419734720613]
データから動的システムを学ぶためのシンプルで解釈可能な方法は、ベクトル場とカーネルを補間することである。
以前の成功にもかかわらず、この戦略は観測された時系列が定期的に時間内にサンプリングされないときに崩壊する。
本稿では,KFデータ適応カーネルの時間差を組み込むことで,動的システムのベクトル場を直接近似することで,この問題に対処する。
論文 参考訳(メタデータ) (2021-11-25T11:45:40Z) - Neural Networks as Kernel Learners: The Silent Alignment Effect [86.44610122423994]
遅延トレーニング体制におけるニューラルネットワークは、カーネルマシンに収束する。
これは、サイレントアライメント(サイレントアライメント)という現象のためである。
また、非白データは無声アライメント効果を弱めることを示した。
論文 参考訳(メタデータ) (2021-10-29T18:22:46Z) - Understanding of Kernels in CNN Models by Suppressing Irrelevant Visual
Features in Images [55.60727570036073]
畳み込みニューラルネットワーク(CNN)におけるカーネルの正確な解釈の欠如は、実際のシナリオにおけるディープラーニングモデルの広範な応用に対する大きな障害である。
CNNモデルにおける任意のカーネルの活性化を解釈するために、単純で効果的な最適化法を提案する。
論文 参考訳(メタデータ) (2021-08-25T05:48:44Z) - Kernel Continual Learning [117.79080100313722]
カーネル連続学習は、破滅的な忘れ事に取り組むための、シンプルだが効果的な連続学習の変種である。
エピソードメモリユニットは、カーネルリッジ回帰に基づいてタスク固有の分類器を学ぶために、各タスクのサンプルのサブセットを格納する。
タスク毎にデータ駆動カーネルを学ぶための変動ランダム機能。
論文 参考訳(メタデータ) (2021-07-12T22:09:30Z) - Taming Nonconvexity in Kernel Feature Selection---Favorable Properties
of the Laplace Kernel [77.73399781313893]
カーネルベースの特徴選択の客観的機能を確立することが課題である。
非言語最適化に利用可能な勾配に基づくアルゴリズムは、局所ミニマへの収束を保証できるだけである。
論文 参考訳(メタデータ) (2021-06-17T11:05:48Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Face Verification via learning the kernel matrix [9.414572104591027]
カーネル関数は非線形パターン認識問題を解決するために導入された。
有望なアプローチは、データからカーネルを自動的に学習することだ。
本稿では,カーネル行列の学習による非線形顔認証を提案する。
論文 参考訳(メタデータ) (2020-01-21T03:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。