論文の概要: Logic Guided Genetic Algorithms
- arxiv url: http://arxiv.org/abs/2010.11328v1
- Date: Wed, 21 Oct 2020 21:57:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 22:32:31.107038
- Title: Logic Guided Genetic Algorithms
- Title(参考訳): 論理誘導遺伝的アルゴリズム
- Authors: Dhananjay Ashok, Joseph Scott, Sebastian Wetzel, Maysum Panju and
Vijay Ganesh
- Abstract要約: 本稿では、論理的あるいは数学的制約をデータ拡張の手段として用い、損失を計算する新しい論理誘導型遺伝的アルゴリズム(LGGA)を提案する。
我々はLGGAを最先端のSRツール、すなわち"The Feynman Lectures on Physics"の16の物理方程式上のEureqaとTuringBotに対して評価する。
これらのSRツールをLGGAと組み合わせることで、最大で30.0%以上の方程式を解き、LGGAを使わずに同じツールと比較してデータ量のごく一部しか必要としないことがわかった。
- 参考スコア(独自算出の注目度): 14.975945413543744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel Auxiliary Truth enhanced Genetic Algorithm (GA) that uses
logical or mathematical constraints as a means of data augmentation as well as
to compute loss (in conjunction with the traditional MSE), with the aim of
increasing both data efficiency and accuracy of symbolic regression (SR)
algorithms. Our method, logic-guided genetic algorithm (LGGA), takes as input a
set of labelled data points and auxiliary truths (ATs) (mathematical facts
known a priori about the unknown function the regressor aims to learn) and
outputs a specially generated and curated dataset that can be used with any SR
method. Three key insights underpin our method: first, SR users often know
simple ATs about the function they are trying to learn. Second, whenever an SR
system produces a candidate equation inconsistent with these ATs, we can
compute a counterexample to prove the inconsistency, and further, this
counterexample may be used to augment the dataset and fed back to the SR system
in a corrective feedback loop. Third, the value addition of these ATs is that
their use in both the loss function and the data augmentation process leads to
better rates of convergence, accuracy, and data efficiency. We evaluate LGGA
against state-of-the-art SR tools, namely, Eureqa and TuringBot on 16 physics
equations from "The Feynman Lectures on Physics" book. We find that using these
SR tools in conjunction with LGGA results in them solving up to 30.0% more
equations, needing only a fraction of the amount of data compared to the same
tool without LGGA, i.e., resulting in up to a 61.9% improvement in data
efficiency.
- Abstract(参考訳): 本稿では,データ拡張の手段として論理的制約や数学的制約を用いて,データ効率の向上とシンボル回帰(SR)アルゴリズムの精度向上を目的とした,新たなGA(Auxiliary Truth enhanced Genetic Algorithm)を提案する。
我々の手法である論理誘導遺伝的アルゴリズム(LGGA)は、ラベル付きデータポイントと補助真理(AT)のセットを入力として(回帰器が学習しようとする未知の機能に関する数学的事実が知られている)、任意のSR法で使用できる特別な生成およびキュレートされたデータセットを出力する。
第一に、srユーザは学習しようとしている機能について単純なatsを知っていることが多い。
第二に、srシステムがこれらのatsと矛盾する候補方程式を生成すると、その不一致を証明するために逆例を計算でき、さらにこの逆例を用いてデータセットを増強し、補正フィードバックループでsrシステムにフィードバックすることができる。
第3に、これらのATの付加価値は、損失関数とデータ拡張プロセスの両方で使用することにより、収束率、精度、データ効率が向上するということである。
我々は,最新のSRツールであるEureqaとTuringBotに対して,LGGAを"The Feynman Lectures on Physics"の本から16の物理方程式上で評価する。
これらのsrツールとlggaを組み合わせることで、最大30.0%の方程式を解くことができ、lggaがなければ同じツールに比べてデータのほんの一部しか必要とせず、データ効率が最大61.9%向上することが判明した。
関連論文リスト
- Generative Pre-Trained Transformer for Symbolic Regression Base In-Context Reinforcement Learning [12.660401635672967]
観測データから数学的公式を見つけることは、科学研究の大きな要求である。
フォーミュラGPTは4つのベースラインと比較して適合性において最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-04-09T14:08:47Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Exploring Equation as a Better Intermediate Meaning Representation for
Numerical Reasoning [53.2491163874712]
我々は数値推論の問題を解くために方程式をIMRとして利用する。
本稿では、方程式(ブリッジ)の生成を分解したブースティング数値推論法を提案する。
本手法では,GSM8K,SVAMP,Algebraデータセットの2.2%,0.9%,1.7%の性能向上を実現している。
論文 参考訳(メタデータ) (2023-08-21T09:35:33Z) - Generalized Oversampling for Learning from Imbalanced datasets and
Associated Theory [0.0]
教師あり学習では、実際の不均衡なデータセットに直面することが多い。
本稿では,カーネル密度推定に基づくデータ拡張手法であるGOLIATHアルゴリズムを提案する。
我々は,不均衡な回帰状況下でのGOLIATHアルゴリズムの性能を評価する。
論文 参考訳(メタデータ) (2023-08-05T23:08:08Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Automatic Data Augmentation via Invariance-Constrained Learning [94.27081585149836]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - GSR: A Generalized Symbolic Regression Approach [13.606672419862047]
本論文では, 一般化記号回帰について述べる。
GSR法は、よく知られたシンボリック回帰ベンチマーク問題セットにおいて、最先端のいくつかの手法よりも優れていることを示す。
既存のベンチマークと比較して、より困難な新しいSRベンチマークセットであるSymSetを導入することで、GSRの強みを強調します。
論文 参考訳(メタデータ) (2022-05-31T07:20:17Z) - MIO : Mutual Information Optimization using Self-Supervised Binary
Contrastive Learning [19.5917119072985]
対が正かどうかを予測するために、比較学習を二項分類問題にモデル化する。
提案手法は,STL-10,CIFAR-10,CIFAR-100などのベンチマークデータセットにおいて,最先端のアルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2021-11-24T17:51:29Z) - Investigating the Scalability and Biological Plausibility of the
Activation Relaxation Algorithm [62.997667081978825]
アクティベーション・リラクシエーション(AR)アルゴリズムは、誤りアルゴリズムのバックプロパゲーションを近似するためのシンプルでロバストなアプローチを提供する。
このアルゴリズムは、学習可能な後方重みセットを導入することにより、さらに単純化され、生物学的に検証可能であることを示す。
また、元のARアルゴリズム(凍結フィードフォワードパス)の別の生物学的に信じられない仮定が、パフォーマンスを損なうことなく緩和できるかどうかについても検討する。
論文 参考訳(メタデータ) (2020-10-13T08:02:38Z) - New Oracle-Efficient Algorithms for Private Synthetic Data Release [52.33506193761153]
微分プライベートな合成データを構築するための3つの新しいアルゴリズムを提案する。
アルゴリズムは最悪の場合でも差分プライバシーを満たす。
現状の手法である高次元行列機構 citeMcKennaMHM18 と比較すると,我々のアルゴリズムは大規模作業負荷の精度が向上する。
論文 参考訳(メタデータ) (2020-07-10T15:46:05Z) - Stacked Generalizations in Imbalanced Fraud Data Sets using Resampling
Methods [2.741266294612776]
本研究では,メタあるいはスーパーラーナと呼ばれる2段階の機械学習手法を組み合わせることによって,アルゴリズムの性能向上を図る。
アルゴリズムのサンプルセットのすべての置換を考慮に入れたテストハーネスを構築することは、複雑な本質的なデータ構造がすべて徹底的にテストされていることを示す。
論文 参考訳(メタデータ) (2020-04-03T20:38:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。