論文の概要: Symbolic expression generation via Variational Auto-Encoder
- arxiv url: http://arxiv.org/abs/2301.06064v1
- Date: Sun, 15 Jan 2023 10:23:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 17:32:07.773664
- Title: Symbolic expression generation via Variational Auto-Encoder
- Title(参考訳): 変分オートエンコーダによる記号表現生成
- Authors: Sergei Popov, Mikhail Lazarev, Vladislav Belavin, Denis Derkach,
Andrey Ustyuzhanin
- Abstract要約: 本稿では,変分オートエンコーダ(VAE)を用いた記号表現生成のための新しいディープラーニングフレームワークを提案する。
我々のフレームワークは、最適化プロセスを高速化する高速チェック述語に、公式のアプリオリ知識を符号化することができる。
SEGVAEの回復率は、Ngyuenデータセットでは65%であり、ノイズレベルは10%であり、従来報告したSOTAよりも20%良い。
- 参考スコア(独自算出の注目度): 5.378134171257822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There are many problems in physics, biology, and other natural sciences in
which symbolic regression can provide valuable insights and discover new laws
of nature. A widespread Deep Neural Networks do not provide interpretable
solutions. Meanwhile, symbolic expressions give us a clear relation between
observations and the target variable. However, at the moment, there is no
dominant solution for the symbolic regression task, and we aim to reduce this
gap with our algorithm. In this work, we propose a novel deep learning
framework for symbolic expression generation via variational autoencoder (VAE).
In a nutshell, we suggest using a VAE to generate mathematical expressions, and
our training strategy forces generated formulas to fit a given dataset. Our
framework allows encoding apriori knowledge of the formulas into fast-check
predicates that speed up the optimization process. We compare our method to
modern symbolic regression benchmarks and show that our method outperforms the
competitors under noisy conditions. The recovery rate of SEGVAE is 65% on the
Ngyuen dataset with a noise level of 10%, which is better than the previously
reported SOTA by 20%. We demonstrate that this value depends on the dataset and
can be even higher.
- Abstract(参考訳): 物理学、生物学、その他の自然科学には多くの問題があり、記号回帰は貴重な洞察を与え、新しい自然法則を発見することができる。
広く使われているディープニューラルネットワークは解釈可能なソリューションを提供しない。
一方、記号表現は観測値と対象変数の間に明確な関係を与える。
しかし、現時点では、記号回帰タスクに支配的な解決策は存在せず、このギャップをアルゴリズムで減らそうとしている。
本稿では,可変オートエンコーダ(vae)を用いた記号表現生成のための新しいディープラーニングフレームワークを提案する。
簡単に言えば、VAEを使って数学的表現を生成することを提案し、トレーニング戦略は与えられたデータセットに適合する公式を生成する。
このフレームワークにより, 式に関する apriori の知識を高速チェック述語にエンコードし, 最適化プロセスを高速化する。
提案手法を現代の記号的回帰ベンチマークと比較し,ノイズ条件下での競合よりも優れた性能を示す。
SEGVAEの回復率は、Ngyuenデータセットでは65%であり、ノイズレベルは10%であり、従来報告したSOTAよりも20%良い。
この値はデータセットに依存しており、さらに高い値になることを実証する。
関連論文リスト
- MARS: Unleashing the Power of Variance Reduction for Training Large Models [56.47014540413659]
Adam、Adam、およびそれらの変種のような大規模な勾配アルゴリズムは、この種のトレーニングの開発の中心となっている。
本稿では,事前条件付き勾配最適化手法と,スケールドモーメント手法による分散低減を両立させる枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-15T18:57:39Z) - Pivotal Auto-Encoder via Self-Normalizing ReLU [20.76999663290342]
トランスフォーメーション学習問題として,単一の隠蔽層スパースオートエンコーダを定式化する。
本稿では,テスト時の騒音レベルに不変な予測モデルを実現する最適化問題を提案する。
実験結果から, 各種ノイズに対する安定性が向上することが示唆された。
論文 参考訳(メタデータ) (2024-06-23T09:06:52Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - GFN-SR: Symbolic Regression with Generative Flow Networks [0.9208007322096533]
近年,DSR(Deep symbolic regression)がこの分野の一般的な手法として登場している。
ディープラーニングを用いてSRにアプローチするための代替フレームワーク(GFN-SR)を提案する。
GFN-SRは多種多様な最適表現を生成することができる。
論文 参考訳(メタデータ) (2023-12-01T07:38:05Z) - Deep Generative Symbolic Regression with Monte-Carlo-Tree-Search [29.392036559507755]
記号回帰は数値データから記号表現を学習する問題である。
手続き的に生成した合成データセットに基づいてトレーニングされたディープニューラルモデルは、競合性能を示した。
そこで本研究では,モンテカルロ木探索手法に基づいて,両世界の長所を提供する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-02-22T09:10:20Z) - Efficient Generator of Mathematical Expressions for Symbolic Regression [0.0]
本稿では,階層構造を生成するための新しい変分オートエンコーダに基づくシンボリックレグレッション手法を提案する。
HVAEは、数学的表現の小さなコーパスで効率的に訓練することができ、スムーズな低次元潜在空間に正確に表現をエンコードすることができる。
最後に、HVAEの潜在空間に進化的アルゴリズムを適用するEDHiEシステムは、ディープラーニングと進化的アルゴリズムの類似した組み合わせに基づく最先端のシステムよりも、標準的な記号的回帰ベンチマークから方程式を再構築する。
論文 参考訳(メタデータ) (2023-02-20T10:40:29Z) - Momentum Decoding: Open-ended Text Generation As Graph Exploration [49.812280360794894]
自動回帰言語モデル(LM)を用いたオープンエンドテキスト生成は、自然言語処理における中核的なタスクの1つである。
我々は、新しい視点から、すなわち、有向グラフ内の探索プロセスとして、オープンエンドテキスト生成を定式化する。
本稿では,新しい復号法であるtextitmomentum decodingを提案する。
論文 参考訳(メタデータ) (2022-12-05T11:16:47Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Symbolic Regression via Neural-Guided Genetic Programming Population
Seeding [6.9501458586819505]
シンボリック回帰(英: Symbolic regression)は、NPハードであると一般に信じられている離散最適化問題である。
この問題を解決するための従来のアプローチには、ニューラルガイド付き検索と遺伝的プログラミングがある。
本稿では、ランダムに再起動する遺伝的プログラミングコンポーネントの開始集団をシードする神経誘導成分を提案する。
論文 参考訳(メタデータ) (2021-10-29T19:26:41Z) - Closed Loop Neural-Symbolic Learning via Integrating Neural Perception,
Grammar Parsing, and Symbolic Reasoning [134.77207192945053]
従来の手法は強化学習アプローチを用いてニューラルシンボリックモデルを学ぶ。
我々は,脳神経知覚と記号的推論を橋渡しする前に,textbfgrammarモデルをテキストシンボリックとして導入する。
本稿では,トップダウンのヒューマンライクな学習手順を模倣して誤りを伝播する新しいtextbfback-searchアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-11T17:42:49Z) - Top-k Training of GANs: Improving GAN Performance by Throwing Away Bad
Samples [67.11669996924671]
GAN(Generative Adversarial Network)トレーニングアルゴリズムに,簡単な修正(一行のコード)を導入する。
ジェネレータパラメータを更新するとき、批判者が最も現実的に評価するバッチの要素から勾配のコントリビューションをゼロにします。
このトップk更新の手順が一般的に適用可能な改善であることを示す。
論文 参考訳(メタデータ) (2020-02-14T19:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。