論文の概要: Symbolic Regression via Neural-Guided Genetic Programming Population
Seeding
- arxiv url: http://arxiv.org/abs/2111.00053v1
- Date: Fri, 29 Oct 2021 19:26:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 14:29:05.135735
- Title: Symbolic Regression via Neural-Guided Genetic Programming Population
Seeding
- Title(参考訳): ニューラル誘導型遺伝的プログラミング集団シードによるシンボリック回帰
- Authors: T. Nathan Mundhenk and Mikel Landajuela and Ruben Glatt and Claudio P.
Santiago and Daniel M. Faissol and Brenden K. Petersen
- Abstract要約: シンボリック回帰(英: Symbolic regression)は、NPハードであると一般に信じられている離散最適化問題である。
この問題を解決するための従来のアプローチには、ニューラルガイド付き検索と遺伝的プログラミングがある。
本稿では、ランダムに再起動する遺伝的プログラミングコンポーネントの開始集団をシードする神経誘導成分を提案する。
- 参考スコア(独自算出の注目度): 6.9501458586819505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Symbolic regression is the process of identifying mathematical expressions
that fit observed output from a black-box process. It is a discrete
optimization problem generally believed to be NP-hard. Prior approaches to
solving the problem include neural-guided search (e.g. using reinforcement
learning) and genetic programming. In this work, we introduce a hybrid
neural-guided/genetic programming approach to symbolic regression and other
combinatorial optimization problems. We propose a neural-guided component used
to seed the starting population of a random restart genetic programming
component, gradually learning better starting populations. On a number of
common benchmark tasks to recover underlying expressions from a dataset, our
method recovers 65% more expressions than a recently published top-performing
model using the same experimental setup. We demonstrate that running many
genetic programming generations without interdependence on the neural-guided
component performs better for symbolic regression than alternative formulations
where the two are more strongly coupled. Finally, we introduce a new set of 22
symbolic regression benchmark problems with increased difficulty over existing
benchmarks. Source code is provided at
www.github.com/brendenpetersen/deep-symbolic-optimization.
- Abstract(参考訳): シンボリック回帰(英: symbolic regression)とは、ブラックボックスプロセスから観測された出力に適合する数式を特定する過程である。
これは一般にnpハードであると考えられる離散最適化問題である。
この問題を解決する以前のアプローチには、ニューラルネットワークによる探索(強化学習など)と遺伝的プログラミングがある。
本研究では,記号回帰や他の組合せ最適化問題に対するハイブリッド型ニューラルネットワーク/遺伝的プログラミング手法を提案する。
本稿では、ランダムに再起動する遺伝的プログラミングコンポーネントの開始集団をシードし、徐々に開始集団を学習する神経誘導成分を提案する。
データセットから基礎となる式を復元する多くのベンチマークタスクでは、同じ実験設定で最近公開されたトップパフォーマンスモデルよりも65%多く表現を復元する。
神経誘導成分の相互依存なしに多くの遺伝的プログラミング世代を走らせることは、両者がより強く結合された代替の定式化よりも象徴的回帰に優れていることを示す。
最後に,既存のベンチマークよりも難易度が高い22のシンボリック回帰ベンチマーク問題について紹介する。
ソースコードはwww.github.com/brendenpetersen/deep-symbolic-optimizationで提供されている。
関連論文リスト
- Guiding Genetic Programming with Graph Neural Networks [0.20718016474717196]
本稿では,記号回帰問題から付加的な知識を引き出すためにグラフニューラルネットワークを用いたEvoNUDGEを提案する。
多数の問題インスタンスに対する広範な実験では、EvoNUDGEは複数のベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2024-11-03T20:43:31Z) - Accelerating evolutionary exploration through language model-based transfer learning [7.4439048149751095]
本稿では,伝達学習と遺伝子発現プログラミングを統合する手法を提案する。
このフレームワークは自然言語処理技術を統合し、過去の最適化で探索された方程式から相関や繰り返しパターンを識別する。
本結果は,移動学習機構によって導出された初期解が,改良された解に対するアルゴリズムの収束率を高めることを裏付けるものである。
論文 参考訳(メタデータ) (2024-06-07T08:05:52Z) - A Pseudo-Semantic Loss for Autoregressive Models with Logical
Constraints [87.08677547257733]
ニューロシンボリックAIは、純粋にシンボリックな学習とニューラルな学習のギャップを埋める。
本稿では,ニューラルネットワークの出力分布に対するシンボリック制約の可能性を最大化する方法を示す。
また,スドクと最短経路予測の手法を自己回帰世代として評価した。
論文 参考訳(メタデータ) (2023-12-06T20:58:07Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Using Linear Regression for Iteratively Training Neural Networks [4.873362301533824]
ニューラルネットワークの重みとバイアスを学習するための単純な線形回帰に基づくアプローチを提案する。
このアプローチは、より大きく、より複雑なアーキテクチャに向けられている。
論文 参考訳(メタデータ) (2023-07-11T11:53:25Z) - Deep Generative Symbolic Regression with Monte-Carlo-Tree-Search [29.392036559507755]
記号回帰は数値データから記号表現を学習する問題である。
手続き的に生成した合成データセットに基づいてトレーニングされたディープニューラルモデルは、競合性能を示した。
そこで本研究では,モンテカルロ木探索手法に基づいて,両世界の長所を提供する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-02-22T09:10:20Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Neural Symbolic Regression that Scales [58.45115548924735]
本稿では,大規模事前学習を利用した最初の記号回帰手法を提案する。
我々は,非有界な方程式の集合を手続き的に生成し,同時にインプット・アウトプット・ペアの集合からシンボル方程式を予測するためにトランスフォーマーを事前訓練する。
論文 参考訳(メタデータ) (2021-06-11T14:35:22Z) - Recognizing and Verifying Mathematical Equations using Multiplicative
Differential Neural Units [86.9207811656179]
メモリ拡張ニューラルネットワーク(NN)は、高次、メモリ拡張外挿、安定した性能、より高速な収束を実現することができることを示す。
本モデルでは,現在の手法と比較して1.53%の精度向上を達成し,2.22%のtop-1平均精度と2.96%のtop-5平均精度を達成している。
論文 参考訳(メタデータ) (2021-04-07T03:50:11Z) - Zoetrope Genetic Programming for Regression [2.642406403099596]
Zoetrope Genetic Programming (ZGP)アルゴリズムは、数学的表現のオリジナルの表現に基づいている。
ZGPは多数のパブリックドメイン回帰データセットを使用して検証される。
論文 参考訳(メタデータ) (2021-02-26T10:47:10Z) - Closed Loop Neural-Symbolic Learning via Integrating Neural Perception,
Grammar Parsing, and Symbolic Reasoning [134.77207192945053]
従来の手法は強化学習アプローチを用いてニューラルシンボリックモデルを学ぶ。
我々は,脳神経知覚と記号的推論を橋渡しする前に,textbfgrammarモデルをテキストシンボリックとして導入する。
本稿では,トップダウンのヒューマンライクな学習手順を模倣して誤りを伝播する新しいtextbfback-searchアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-11T17:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。