論文の概要: Deep Learning and Symbolic Regression for Discovering Parametric
Equations
- arxiv url: http://arxiv.org/abs/2207.00529v1
- Date: Fri, 1 Jul 2022 16:25:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 16:05:51.928570
- Title: Deep Learning and Symbolic Regression for Discovering Parametric
Equations
- Title(参考訳): パラメトリック方程式発見のための深層学習と記号回帰
- Authors: Michael Zhang, Samuel Kim, Peter Y. Lu, Marin Solja\v{c}i\'c
- Abstract要約: パラメトリックシステムにシンボリック回帰を拡張するニューラルネットワークアーキテクチャを提案する。
本稿では,様々な解析式,ODE,PDEに対して,係数の異なる手法を示す。
このアーキテクチャを畳み込みニューラルネットワークと統合し、様々なスプリングシステムの1次元画像を分析する。
- 参考スコア(独自算出の注目度): 5.103519975854401
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Symbolic regression is a machine learning technique that can learn the
governing formulas of data and thus has the potential to transform scientific
discovery. However, symbolic regression is still limited in the complexity and
dimensionality of the systems that it can analyze. Deep learning on the other
hand has transformed machine learning in its ability to analyze extremely
complex and high-dimensional datasets. We propose a neural network architecture
to extend symbolic regression to parametric systems where some coefficient may
vary but the structure of the underlying governing equation remains constant.
We demonstrate our method on various analytic expressions, ODEs, and PDEs with
varying coefficients and show that it extrapolates well outside of the training
domain. The neural network-based architecture can also integrate with other
deep learning architectures so that it can analyze high-dimensional data while
being trained end-to-end. To this end we integrate our architecture with
convolutional neural networks to analyze 1D images of varying spring systems.
- Abstract(参考訳): シンボリック回帰(symbolive regression)は、データの制御公式を学習し、科学的発見を変革する可能性を持つ機械学習技術である。
しかし、シンボリック回帰は、解析できるシステムの複雑さと次元性にはまだ制限がある。
一方、ディープラーニングは、非常に複雑で高次元のデータセットを解析する能力に機械学習を変革した。
本稿では,ある係数が変化するが基礎となる支配方程式の構造が一定であるパラメトリックシステムにシンボリック回帰を拡張するニューラルネットワークアーキテクチャを提案する。
本稿では,様々な解析式,ODE,PDEを様々な係数で表し,トレーニング領域の外によく外挿されていることを示す。
ニューラルネットワークベースのアーキテクチャは、他のディープラーニングアーキテクチャとも統合でき、エンドツーエンドのトレーニングを受けたまま、高次元データを分析できる。
この目的のために、アーキテクチャを畳み込みニューラルネットワークと統合し、様々なスプリングシステムの1次元画像を分析する。
関連論文リスト
- Enhancing Symbolic Regression and Universal Physics-Informed Neural Networks with Dimensional Analysis [0.7864304771129751]
本稿では,次元解析による微分方程式の記号回帰性向上手法を提案する。
我々はIpsenの次元解析法とUniversal Physics-Informed Neural Networksを統合する。
本研究では,データを非次元形式に変換することで,時間を大幅に短縮し,計算精度を向上することを示す。
論文 参考訳(メタデータ) (2024-11-24T17:07:39Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Unsupervised Learning of Invariance Transformations [105.54048699217668]
近似グラフ自己同型を見つけるためのアルゴリズムフレームワークを開発する。
重み付きグラフにおける近似自己同型を見つけるために、このフレームワークをどのように利用できるかについて議論する。
論文 参考訳(メタデータ) (2023-07-24T17:03:28Z) - Persistence-based operators in machine learning [62.997667081978825]
永続性に基づくニューラルネットワークレイヤのクラスを導入します。
永続化ベースのレイヤにより、ユーザは、データによって尊重される対称性に関する知識を容易に注入でき、学習可能なウェイトを備え、最先端のニューラルネットワークアーキテクチャで構成できる。
論文 参考訳(メタデータ) (2022-12-28T18:03:41Z) - Polynomial-Spline Neural Networks with Exact Integrals [0.0]
我々は,実験モデルの混合と自由結び目B1-スプライン基底関数を組み合わせた新しいニューラルネットワークアーキテクチャを開発した。
我々のアーキテクチャは近似理論から期待される収束率での回帰問題に対する$h$-および$p$-の洗練を示す。
ネットワークアーキテクチャの一貫性と正確な統合性を示す様々な回帰問題と変分問題において、我々のネットワークの成功を実証する。
論文 参考訳(メタデータ) (2021-10-26T22:12:37Z) - Discrete-Valued Neural Communication [85.3675647398994]
コンポーネント間で伝達される情報を離散表現に制限することは、有益なボトルネックであることを示す。
個人は「猫」が特定の経験に基づいて何であるかについて異なる理解を持っているが、共有された離散トークンは、個人間のコミュニケーションが内部表現の個人差によって切り離されることを可能にする。
我々は、量子化機構をベクトル量子化変分オートコーダから共有符号ブックによる多頭部離散化に拡張し、離散値ニューラル通信に利用する。
論文 参考訳(メタデータ) (2021-07-06T03:09:25Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Partial Differential Equations is All You Need for Generating Neural Architectures -- A Theory for Physical Artificial Intelligence Systems [40.20472268839781]
我々は、統計物理学における反応拡散方程式、量子力学におけるシュル・オーディンガー方程式、同軸光学におけるヘルムホルツ方程式を一般化する。
数値解を求めるためにNPDEを離散化するために有限差分法を用いる。
多層パーセプトロン、畳み込みニューラルネットワーク、リカレントニューラルネットワークなど、ディープニューラルネットワークアーキテクチャの基本構築ブロックが生成される。
論文 参考訳(メタデータ) (2021-03-10T00:05:46Z) - Deep Representational Similarity Learning for analyzing neural
signatures in task-based fMRI dataset [81.02949933048332]
本稿では、表現類似度分析(RSA)の深部拡張であるDRSL(Deep Representational similarity Learning)を開発する。
DRSLは、多数の被験者を持つfMRIデータセットにおける様々な認知タスク間の類似性を分析するのに適している。
論文 参考訳(メタデータ) (2020-09-28T18:30:14Z) - Learning Variational Data Assimilation Models and Solvers [34.22350850350653]
データ同化のためのエンドツーエンドニューラルネットワークアーキテクチャを導入する。
提案するエンドツーエンド学習アーキテクチャの重要な特徴は、教師なし戦略と教師なし戦略の両方を用いてNNモデルをトレーニングできることである。
論文 参考訳(メタデータ) (2020-07-25T14:28:48Z) - Teaching Recurrent Neural Networks to Modify Chaotic Memories by Example [14.91507266777207]
繰り返しニューラルネットワークは,実例のみを用いて複雑な情報の表現を変更できることが示される。
我々は,これらの計算を学習するためのメカニズムを提供し,一つのネットワークが同時に複数の計算を学習できることを実証する。
論文 参考訳(メタデータ) (2020-05-03T20:51:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。