論文の概要: Sparsistent Model Discovery
- arxiv url: http://arxiv.org/abs/2106.11936v1
- Date: Tue, 22 Jun 2021 17:19:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 16:33:07.586581
- Title: Sparsistent Model Discovery
- Title(参考訳): スパーシスタントモデルの発見
- Authors: Georges Tod and Gert-Jan Both and Remy Kusters
- Abstract要約: 我々は、Lassoベースのモデル発見アルゴリズムの性能の貧弱さを、その潜在的な変数選択の不整合にまで遡る。
本稿では、安定性の選択と安定性の誤り制御を備えたディープラーニングモデル発見フレームワークに統合することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Discovering the partial differential equations underlying a spatio-temporal
datasets from very limited observations is of paramount interest in many
scientific fields. However, it remains an open question to know when model
discovery algorithms based on sparse regression can actually recover the
underlying physical processes. We trace back the poor of performance of Lasso
based model discovery algorithms to its potential variable selection
inconsistency: meaning that even if the true model is present in the library,
it might not be selected. By first revisiting the irrepresentability condition
(IRC) of the Lasso, we gain some insights of when this might occur. We then
show that the adaptive Lasso will have more chances of verifying the IRC than
the Lasso and propose to integrate it within a deep learning model discovery
framework with stability selection and error control. Experimental results show
we can recover several nonlinear and chaotic canonical PDEs with a single set
of hyperparameters from a very limited number of samples at high noise levels.
- Abstract(参考訳): 非常に限られた観測から時空間データセットの下の偏微分方程式を発見することは、多くの科学分野において最重要となる。
しかし、スパース回帰に基づくモデル発見アルゴリズムが実際に基盤となる物理プロセスを回復できるかどうかを知ることは、まだ未解決の問題である。
我々は、Lassoベースのモデル発見アルゴリズムの性能の貧弱さを、その潜在的な変数選択の不整合に遡る:つまり、真のモデルがライブラリに存在するとしても、それは選択されないかもしれない。
まず、ラッソの不表現性条件(IRC)を再考することにより、この現象がいつ起こるかを知ることができる。
次に、適応的なLassoは、LassoよりもIRCを検証する可能性が高く、安定性の選択とエラー制御を備えたディープラーニングモデル発見フレームワークに統合することを提案する。
実験結果から, ノイズレベルの高いサンプルから, 単一のハイパーパラメータセットで複数の非線形・カオス正準pdesを回収できることがわかった。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Convergence of uncertainty estimates in Ensemble and Bayesian sparse
model discovery [4.446017969073817]
ブートストラップに基づく逐次しきい値最小二乗推定器による雑音に対する精度と頑健性の観点から経験的成功を示す。
このブートストラップに基づくアンサンブル手法は,誤差率の指数収束率で,確率的に正しい可変選択を行うことができることを示す。
論文 参考訳(メタデータ) (2023-01-30T04:07:59Z) - Posterior Collapse and Latent Variable Non-identifiability [54.842098835445]
柔軟性を犠牲にすることなく識別性を強制する深層生成モデルである,潜時同定可能な変分オートエンコーダのクラスを提案する。
合成および実データ全体にわたって、潜在識別可能な変分オートエンコーダは、後方崩壊を緩和し、データの有意義な表現を提供する既存の方法より優れている。
論文 参考訳(メタデータ) (2023-01-02T06:16:56Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Time Series Anomaly Detection with label-free Model Selection [0.6303112417588329]
ラベルのない時系列データに対するラベルなしモデル選択を用いた新しい異常検出アルゴリズムであるLaF-ADを提案する。
我々のアルゴリズムは容易に並列化可能であり、不条件データや季節データに対してより堅牢であり、多数の異常モデルに対して非常にスケーラブルである。
論文 参考訳(メタデータ) (2021-06-11T00:21:06Z) - Leveraging Global Parameters for Flow-based Neural Posterior Estimation [90.21090932619695]
実験観測に基づくモデルのパラメータを推定することは、科学的方法の中心である。
特に困難な設定は、モデルが強く不確定であるとき、すなわち、パラメータの異なるセットが同一の観測をもたらすときである。
本稿では,グローバルパラメータを共有する観測の補助的セットによって伝達される付加情報を利用して,その不確定性を破る手法を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:23:13Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Sparsely constrained neural networks for model discovery of PDEs [0.0]
本稿では,任意のスパース回帰手法を用いて,ディープラーニングに基づくサロゲートのスパースパターンを決定するモジュラーフレームワークを提案する。
異なるネットワークアーキテクチャと疎度推定器がモデル発見精度と収束性を,いくつかのベンチマーク例でどのように改善するかを示す。
論文 参考訳(メタデータ) (2020-11-09T11:02:40Z) - Discovery of Governing Equations with Recursive Deep Neural Networks [5.031093893882574]
本稿では,データを時間内に効率的にサンプリングしない場合のモデル発見問題に焦点をあてる。
データ駆動モデル探索のための再帰ディープニューラルネットワーク(RDNN)を導入する。
提案手法は, 既存のデータを大量の時間ラグでサンプリングした場合に, 優れた性能を示す。
論文 参考訳(メタデータ) (2020-09-24T05:59:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。