論文の概要: Accelerating Understanding of Scientific Experiments with End to End
Symbolic Regression
- arxiv url: http://arxiv.org/abs/2112.04023v1
- Date: Tue, 7 Dec 2021 22:28:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 13:46:37.685544
- Title: Accelerating Understanding of Scientific Experiments with End to End
Symbolic Regression
- Title(参考訳): 端から端までの記号回帰による科学的実験の理解の加速
- Authors: Nikos Arechiga and Francine Chen and Yan-Ying Chen and Yanxia Zhang
and Rumen Iliev and Heishiro Toyoda and Kent Lyons
- Abstract要約: 生データから自由形記号表現を学習する問題に対処するディープニューラルネットワークを開発した。
ニューラルネットワークを、長さの異なるデータテーブルとノイズのレベルからなる合成データセットでトレーニングする。
行動科学の公開データセット上で動作させることで、我々の技術を検証する。
- 参考スコア(独自算出の注目度): 12.008215939224382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of learning free-form symbolic expressions from raw
data, such as that produced by an experiment in any scientific domain. Accurate
and interpretable models of scientific phenomena are the cornerstone of
scientific research. Simple yet interpretable models, such as linear or
logistic regression and decision trees often lack predictive accuracy.
Alternatively, accurate blackbox models such as deep neural networks provide
high predictive accuracy, but do not readily admit human understanding in a way
that would enrich the scientific theory of the phenomenon. Many great
breakthroughs in science revolve around the development of parsimonious
equational models with high predictive accuracy, such as Newton's laws,
universal gravitation, and Maxwell's equations. Previous work on automating the
search of equational models from data combine domain-specific heuristics as
well as computationally expensive techniques, such as genetic programming and
Monte-Carlo search. We develop a deep neural network (MACSYMA) to address the
symbolic regression problem as an end-to-end supervised learning problem.
MACSYMA can generate symbolic expressions that describe a dataset. The
computational complexity of the task is reduced to the feedforward computation
of a neural network. We train our neural network on a synthetic dataset
consisting of data tables of varying length and varying levels of noise, for
which the neural network must learn to produce the correct symbolic expression
token by token. Finally, we validate our technique by running on a public
dataset from behavioral science.
- Abstract(参考訳): 我々は,任意の科学領域において実験によって得られたような,生データから自由形記号表現を学習する問題について考察する。
科学的現象の正確な解釈モデルが科学研究の基盤となっている。
線形回帰やロジスティック回帰や決定木のような単純で解釈可能なモデルは予測精度に欠けることが多い。
あるいは、ディープニューラルネットワークのような正確なブラックボックスモデルは高い予測精度をもたらすが、その現象の科学的理論を豊かにする方法で人間の理解を容易に認めない。
科学における多くの大きなブレークスルーは、ニュートンの法則、普遍重力、マクスウェルの方程式など、予測精度の高い擬似方程式モデルの開発に発展をもたらした。
データから方程式モデルの探索を自動化する以前の研究は、ドメイン固有のヒューリスティックスと、遺伝的プログラミングやモンテカルロ探索のような計算コストの高い技術を組み合わせたものだった。
シンボル回帰問題をエンドツーエンドの教師付き学習問題として扱うディープニューラルネットワーク(MACSYMA)を開発した。
MACSYMAはデータセットを記述するシンボリック表現を生成することができる。
タスクの計算複雑性は、ニューラルネットワークのフィードフォワード計算に還元される。
さまざまな長さのデータテーブルとさまざまなノイズレベルからなる合成データセットでニューラルネットワークをトレーニングし、ニューラルネットワークがトークンによって正しいシンボリック表現トークンを生成することを学ばなければなりません。
最後に,行動科学の公開データセット上で動作させることで,我々の手法を検証する。
関連論文リスト
- Discovering symbolic expressions with parallelized tree search [59.92040079807524]
記号回帰は、データから簡潔で解釈可能な数学的表現を発見する能力のおかげで、科学研究において重要な役割を果たす。
既存のアルゴリズムは、複雑性の問題に対処する際の精度と効率の重要なボトルネックに直面してきた。
本稿では,限定データから汎用数学的表現を効率的に抽出する並列木探索(PTS)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-05T10:41:15Z) - Machine-Guided Discovery of a Real-World Rogue Wave Model [0.0]
本稿では, 因果解析, 深層学習, パーシモニー誘導モデル選択, 記号回帰を用いたデータから, 海洋ローグ波の新しい記号モデルを発見するケーススタディを提案する。
我々は,このブラックボックスモデルをニューラルネットワークの予測能力を保持する数学的方程式に蒸留するために,記号回帰を適用した。
これは、機械学習が帰納的な科学的発見を促進する方法を示し、より正確なローグ波予測の道を開く。
論文 参考訳(メタデータ) (2023-11-21T12:50:24Z) - Toward Physically Plausible Data-Driven Models: A Novel Neural Network
Approach to Symbolic Regression [2.7071541526963805]
本稿では,ニューラルネットワークに基づく記号回帰手法を提案する。
非常に小さなトレーニングデータセットとシステムに関する事前知識に基づいて、物理的に妥当なモデルを構築する。
本研究では,TurtleBot 2移動ロボット,磁気操作システム,2つの抵抗の等価抵抗,アンチロックブレーキシステムの長手力の4つの試験システムに対するアプローチを実験的に評価した。
論文 参考訳(メタデータ) (2023-02-01T22:05:04Z) - Interpretable models for extrapolation in scientific machine learning [0.0]
複雑な機械学習アルゴリズムは、補間的設定において単純な回帰よりも優れていることが多い。
本稿では, モデル性能と解釈可能性のトレードオフを, 幅広い科学・工学的問題にまたがって検討する。
論文 参考訳(メタデータ) (2022-12-16T19:33:28Z) - An Information-Theoretic Analysis of Compute-Optimal Neural Scaling Laws [24.356906682593532]
大規模ニューラルネットワークにおけるモデルとトレーニングデータセットサイズ間の計算-最適トレードオフについて検討する。
以上の結果から, チンチラの実証分析で裏付けられる線形関係が示唆された。
論文 参考訳(メタデータ) (2022-12-02T18:46:41Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Recognizing and Verifying Mathematical Equations using Multiplicative
Differential Neural Units [86.9207811656179]
メモリ拡張ニューラルネットワーク(NN)は、高次、メモリ拡張外挿、安定した性能、より高速な収束を実現することができることを示す。
本モデルでは,現在の手法と比較して1.53%の精度向上を達成し,2.22%のtop-1平均精度と2.96%のtop-5平均精度を達成している。
論文 参考訳(メタデータ) (2021-04-07T03:50:11Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z) - Mean-Field and Kinetic Descriptions of Neural Differential Equations [0.0]
この研究では、ニューラルネットワークの特定のクラス、すなわち残留ニューラルネットワークに焦点を当てる。
我々は、ネットワークのパラメータ、すなわち重みとバイアスに関する定常状態と感度を分析する。
残留ニューラルネットワークにインスパイアされた微視的ダイナミクスの修正は、ネットワークのフォッカー・プランクの定式化につながる。
論文 参考訳(メタデータ) (2020-01-07T13:41:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。