論文の概要: A Neural-Guided Dynamic Symbolic Network for Exploring Mathematical
Expressions from Data
- arxiv url: http://arxiv.org/abs/2309.13705v1
- Date: Sun, 24 Sep 2023 17:37:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 18:04:03.234057
- Title: A Neural-Guided Dynamic Symbolic Network for Exploring Mathematical
Expressions from Data
- Title(参考訳): データから数式を探索するニューラルネットワークによる動的シンボリックネットワーク
- Authors: Wenqiang Li, Weijun Li, Lina Yu, Min Wu, Jingyi Liu, Yanjie Li
- Abstract要約: 記号回帰は観測データから基礎となる数学的表現を発見するための強力な手法である。
SRのための新しいニューラルネットワークであるDySymNetを提案する。
- 参考スコア(独自算出の注目度): 15.247247514141314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Symbolic regression (SR) is a powerful technique for discovering the
underlying mathematical expressions from observed data. Inspired by the success
of deep learning, recent efforts have focused on two categories for SR methods.
One is using a neural network or genetic programming to search the expression
tree directly. Although this has shown promising results, the large search
space poses difficulties in learning constant factors and processing
high-dimensional problems. Another approach is leveraging a transformer-based
model training on synthetic data and offers advantages in inference speed.
However, this method is limited to fixed small numbers of dimensions and may
encounter inference problems when given data is out-of-distribution compared to
the synthetic data. In this work, we propose DySymNet, a novel neural-guided
Dynamic Symbolic Network for SR. Instead of searching for expressions within a
large search space, we explore DySymNet with various structures and optimize
them to identify expressions that better-fitting the data. With a topology
structure like neural networks, DySymNet not only tackles the challenge of
high-dimensional problems but also proves effective in optimizing constants.
Based on extensive numerical experiments using low-dimensional public standard
benchmarks and the well-known SRBench with more variables, our method achieves
state-of-the-art performance in terms of fitting accuracy and robustness to
noise.
- Abstract(参考訳): 記号回帰 (sr) は観測データから基礎となる数学的表現を発見する強力な手法である。
ディープラーニングの成功に触発された近年の取り組みは、SR手法の2つのカテゴリに焦点を当てている。
ひとつは、ニューラルネットワークや遺伝的プログラミングを使って表現木を直接検索することである。
これは有望な結果を示しているが、大きな探索空間は一定要素の学習と高次元問題の処理に困難をもたらす。
別のアプローチは、トランスフォーマーベースのモデルトレーニングを合成データに活用し、推論速度の利点を提供する。
しかし、この方法は固定された少数の次元に限られており、与えられたデータが合成データと比較して分布外である場合に推論問題に遭遇する可能性がある。
本研究では,SRのためのニューラル誘導型動的記号ネットワークDySymNetを提案する。
大規模な検索空間内で表現を探す代わりに,様々な構造を持つDySymNetを探索し,データに適した表現を識別する。
ニューラルネットワークのようなトポロジー構造では、DySymNetは高次元問題の課題に取り組むだけでなく、定数の最適化にも有効である。
低次元の標準ベンチマークと多くの変数を持つよく知られたSRBenchを用いた広範な数値実験に基づいて,本手法は適応精度と雑音に対する堅牢性の観点から最先端の性能を実現する。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - A Transformer Model for Symbolic Regression towards Scientific Discovery [11.827358526480323]
記号回帰(SR)は、数値データセットを最もよく記述する数学的表現を探索する。
本稿では, シンボリック回帰に着目した新しいトランスフォーマーモデルを提案する。
我々は、正規化ツリーベース編集距離を用いて、最先端の結果を出力するSRSDデータセットにベストモデルを適用した。
論文 参考訳(メタデータ) (2023-12-07T06:27:48Z) - Multicoated and Folded Graph Neural Networks with Strong Lottery Tickets [3.0894823679470087]
本稿では,アーキテクチャとパラメータの両面から検索空間を拡張するためのマルチステージ・フォールディング法とアンシャレッド・マスク法を提案する。
高空間性、競争性能、高メモリ効率を最大98.7%の削減で達成することにより、エネルギー効率の高いグラフ処理に適していることを示す。
論文 参考訳(メタデータ) (2023-12-06T02:16:44Z) - GFN-SR: Symbolic Regression with Generative Flow Networks [0.9208007322096533]
近年,DSR(Deep symbolic regression)がこの分野の一般的な手法として登場している。
ディープラーニングを用いてSRにアプローチするための代替フレームワーク(GFN-SR)を提案する。
GFN-SRは多種多様な最適表現を生成することができる。
論文 参考訳(メタデータ) (2023-12-01T07:38:05Z) - Deep Generative Symbolic Regression with Monte-Carlo-Tree-Search [29.392036559507755]
記号回帰は数値データから記号表現を学習する問題である。
手続き的に生成した合成データセットに基づいてトレーニングされたディープニューラルモデルは、競合性能を示した。
そこで本研究では,モンテカルロ木探索手法に基づいて,両世界の長所を提供する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-02-22T09:10:20Z) - Discovering "Semantics" in Super-Resolution Networks [54.45509260681529]
超解像(SR)は低レベルの視覚領域の基本的で代表的な課題である。
一般に、SRネットワークから抽出された特徴は特定の意味情報を持たないと考えられている。
SRネットワークで「セマンティック」を見つけることはできますか?
論文 参考訳(メタデータ) (2021-08-01T09:12:44Z) - Leveraging Sparse Linear Layers for Debuggable Deep Networks [86.94586860037049]
学習した深い特徴表現に疎い線形モデルを適用することで、よりデバッグ可能なニューラルネットワークを実現する方法を示す。
その結果、スパースな説明は、スプリアス相関を特定し、誤分類を説明し、視覚および言語タスクにおけるモデルバイアスを診断するのに役立ちます。
論文 参考訳(メタデータ) (2021-05-11T08:15:25Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Deep Polynomial Neural Networks [77.70761658507507]
$Pi$Netsは拡張に基づいた関数近似の新しいクラスである。
$Pi$Netsは、画像生成、顔検証、および3Dメッシュ表現学習という3つの困難なタスクで、最先端の結果を生成する。
論文 参考訳(メタデータ) (2020-06-20T16:23:32Z) - Closed Loop Neural-Symbolic Learning via Integrating Neural Perception,
Grammar Parsing, and Symbolic Reasoning [134.77207192945053]
従来の手法は強化学習アプローチを用いてニューラルシンボリックモデルを学ぶ。
我々は,脳神経知覚と記号的推論を橋渡しする前に,textbfgrammarモデルをテキストシンボリックとして導入する。
本稿では,トップダウンのヒューマンライクな学習手順を模倣して誤りを伝播する新しいtextbfback-searchアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-11T17:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。