論文の概要: Enhancing Symbolic Regression and Universal Physics-Informed Neural Networks with Dimensional Analysis
- arxiv url: http://arxiv.org/abs/2411.15919v1
- Date: Sun, 24 Nov 2024 17:07:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:19:39.698727
- Title: Enhancing Symbolic Regression and Universal Physics-Informed Neural Networks with Dimensional Analysis
- Title(参考訳): 次元解析による記号回帰と普遍物理学インフォームドニューラルネットワークの強化
- Authors: Lena Podina, Diba Darooneh, Joshveer Grewal, Mohammad Kohandel,
- Abstract要約: 本稿では,次元解析による微分方程式の記号回帰性向上手法を提案する。
我々はIpsenの次元解析法とUniversal Physics-Informed Neural Networksを統合する。
本研究では,データを非次元形式に変換することで,時間を大幅に短縮し,計算精度を向上することを示す。
- 参考スコア(独自算出の注目度): 0.7864304771129751
- License:
- Abstract: We present a new method for enhancing symbolic regression for differential equations via dimensional analysis, specifically Ipsen's and Buckingham pi methods. Since symbolic regression often suffers from high computational costs and overfitting, non-dimensionalizing datasets reduces the number of input variables, simplifies the search space, and ensures that derived equations are physically meaningful. As our main contribution, we integrate Ipsen's method of dimensional analysis with Universal Physics-Informed Neural Networks. We also combine dimensional analysis with the AI Feynman symbolic regression algorithm to show that dimensional analysis significantly improves the accuracy of the recovered equation. The results demonstrate that transforming data into a dimensionless form significantly decreases computation time and improves accuracy of the recovered hidden term. For algebraic equations, using the Buckingham pi theorem reduced complexity, allowing the AI Feynman model to converge faster with fewer data points and lower error rates. For differential equations, Ipsen's method was combined with Universal Physics-Informed Neural Networks (UPINNs) to identify hidden terms more effectively. These findings suggest that integrating dimensional analysis with symbolic regression can significantly lower computational costs, enhance model interpretability, and increase accuracy, providing a robust framework for automated discovery of governing equations in complex systems when data is limited.
- Abstract(参考訳): 微分方程式の記号回帰を次元解析により拡張する新しい手法,特にイプセン法とバッキンガム法について述べる。
記号回帰はしばしば高い計算コストと過度な適合に悩まされるため、非次元化データセットは入力変数の数を減らし、探索空間を単純化し、導出方程式が物理的に意味があることを保証する。
本研究の主な貢献として,Ipsenの次元解析法とUniversal Physics-Informed Neural Networksを統合した。
また、次元解析とAIファインマン記号回帰アルゴリズムを組み合わせることで、次元解析が復元された方程式の精度を大幅に向上させることを示す。
その結果, データを非次元形式に変換することで, 計算時間を大幅に短縮し, 復元された隠蔽項の精度を向上させることができた。
代数方程式の場合、バッキンガムのπ定理を用いることで複雑さを減らし、AIファインマンモデルをより少ないデータポイントと低いエラー率でより早く収束させることができる。
微分方程式の場合、Ipsenの手法はUniversal Physics-Informed Neural Networks (UPINNs)と組み合わせられ、隠れた項をより効果的に同定した。
これらの結果から,次元解析と記号回帰の統合は,計算コストを大幅に削減し,モデル解釈可能性を高め,精度を高め,データ制限時の複雑なシステムにおける支配方程式の自動発見のための堅牢な枠組みを提供する可能性が示唆された。
関連論文リスト
- Discovering symbolic expressions with parallelized tree search [59.92040079807524]
記号回帰は、データから簡潔で解釈可能な数学的表現を発見する能力のおかげで、科学研究において重要な役割を果たす。
既存のアルゴリズムは、複雑性の問題に対処する際の精度と効率の重要なボトルネックに直面してきた。
本稿では,限定データから汎用数学的表現を効率的に抽出する並列木探索(PTS)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-05T10:41:15Z) - An Efficient Approach to Regression Problems with Tensor Neural Networks [5.345144592056051]
本稿では、非パラメトリック回帰問題に対処するテンソルニューラルネットワーク(TNN)を提案する。
TNNは従来のFeed-Forward Networks (FFN) や Radial Basis Function Networks (RBN) よりも優れた性能を示している。
このアプローチにおける重要な革新は、統計回帰とTNNフレームワーク内の数値積分の統合である。
論文 参考訳(メタデータ) (2024-06-14T03:38:40Z) - SymbolNet: Neural Symbolic Regression with Adaptive Dynamic Pruning [1.0356366043809717]
モデル重み,入力特徴,数学的演算子を1つのトレーニングプロセスで動的に刈り取ることができる新しいフレームワークにおいて,記号回帰に対するニューラルネットワークアプローチを提案する。
提案手法は,計算資源制約の厳しい環境下での高次元データセットに対して,FPGA上でのナノ秒スケールレイテンシによる高速な推論を実現する。
論文 参考訳(メタデータ) (2024-01-18T12:51:38Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Symplectic Autoencoders for Model Reduction of Hamiltonian Systems [0.0]
長期の数値安定性を確保するためには,システムに関連するシンプレクティックな構造を維持することが重要である。
本稿では,次元削減のための確立されたツールであるオートエンコーダの精神の中で,新しいニューラルネットワークアーキテクチャを提案する。
ネットワークのトレーニングには,非標準勾配降下法を適用した。
論文 参考訳(メタデータ) (2023-12-15T18:20:25Z) - Discovering Interpretable Physical Models using Symbolic Regression and
Discrete Exterior Calculus [55.2480439325792]
本稿では,記号回帰(SR)と離散指数計算(DEC)を組み合わせて物理モデルの自動発見を行うフレームワークを提案する。
DECは、SRの物理問題への最先端の応用を越えている、場の理論の離散的な類似に対して、ビルディングブロックを提供する。
実験データから連続体物理の3つのモデルを再発見し,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-10-10T13:23:05Z) - Slow Invariant Manifolds of Singularly Perturbed Systems via
Physics-Informed Machine Learning [0.0]
特異摂動系の遅い不変多様体(SIM)を近似するための物理インフォームド・機械学習(PIML)手法を提案する。
提案手法では,従来のGSPT法よりも精度の高い近似法が提案されている。
また、学習過程において必要となる微分の記号的、自動的、数値的近似の計算コストの比較を行う。
論文 参考訳(メタデータ) (2023-09-14T14:10:22Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Deep Learning and Symbolic Regression for Discovering Parametric
Equations [5.103519975854401]
パラメトリックシステムにシンボリック回帰を拡張するニューラルネットワークアーキテクチャを提案する。
本稿では,様々な解析式,ODE,PDEに対して,係数の異なる手法を示す。
このアーキテクチャを畳み込みニューラルネットワークと統合し、様々なスプリングシステムの1次元画像を分析する。
論文 参考訳(メタデータ) (2022-07-01T16:25:59Z) - Quantum Algorithms for Data Representation and Analysis [68.754953879193]
機械学習におけるデータ表現のための固有problemsの解を高速化する量子手続きを提供する。
これらのサブルーチンのパワーと実用性は、主成分分析、対応解析、潜在意味解析のための入力行列の大きさのサブ線形量子アルゴリズムによって示される。
その結果、入力のサイズに依存しない実行時のパラメータは妥当であり、計算モデル上の誤差が小さいことが示され、競合的な分類性能が得られる。
論文 参考訳(メタデータ) (2021-04-19T00:41:43Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。