論文の概要: Transformer Semantic Genetic Programming for Symbolic Regression
- arxiv url: http://arxiv.org/abs/2501.18479v1
- Date: Thu, 30 Jan 2025 16:51:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-31 15:12:53.665314
- Title: Transformer Semantic Genetic Programming for Symbolic Regression
- Title(参考訳): シンボリック回帰のためのトランスフォーマセマンティック遺伝的プログラミング
- Authors: Philipp Anthes, Dominik Sobania, Franz Rothlauf,
- Abstract要約: Transformer Genetic Programming (TSGP) は、生成型トランスフォーマーモデルを探索演算子として使用する、新しく柔軟なセマンティックアプローチである。
このモデルは、合成テスト問題に基づいて訓練され、ソリューション間のセマンティックな類似性を学ぶ。
探索力学の解析により、TSGPが生成した解は、ベンチマーク手法が生成した解と意味的に類似していることが明らかになった。
- 参考スコア(独自算出の注目度): 0.8602553195689513
- License:
- Abstract: In standard genetic programming (stdGP), solutions are varied by modifying their syntax, with uncertain effects on their semantics. Geometric-semantic genetic programming (GSGP), a popular variant of GP, effectively searches the semantic solution space using variation operations based on linear combinations, although it results in significantly larger solutions. This paper presents Transformer Semantic Genetic Programming (TSGP), a novel and flexible semantic approach that uses a generative transformer model as search operator. The transformer is trained on synthetic test problems and learns semantic similarities between solutions. Once the model is trained, it can be used to create offspring solutions with high semantic similarity also for unseen and unknown problems. Experiments on several symbolic regression problems show that TSGP generates solutions with comparable or even significantly better prediction quality than stdGP, SLIM_GSGP, DSR, and DAE-GP. Like SLIM_GSGP, TSGP is able to create new solutions that are semantically similar without creating solutions of large size. An analysis of the search dynamic reveals that the solutions generated by TSGP are semantically more similar than the solutions generated by the benchmark approaches allowing a better exploration of the semantic solution space.
- Abstract(参考訳): 標準的な遺伝的プログラミング(stdGP)では、解は構文を変更することで変化し、意味論に不確実な影響を及ぼす。
Geometric-semantic genetic programming (GSGP)は、GPの一般的な変種であり、線形結合に基づく変動演算を用いて意味論的解空間を効果的に探索する。
本稿では,トランスフォーマー・セマンティック・ジェネティック・プログラミング(TSGP)を提案する。
トランスは、合成テスト問題に基づいて訓練され、ソリューション間のセマンティックな類似性を学ぶ。
モデルがトレーニングされたら、見知らぬ問題や未知の問題に対しても、セマンティックな類似性の高い子孫ソリューションを作成するために使用することができる。
いくつかのシンボリック回帰問題に対する実験により、TSGPはstdGP、SLIM_GSGP、DSR、DAE-GPと同等またはさらに優れた予測品質の解を生成することが示された。
SLIM_GSGPと同様に、TSGPは大規模なソリューションを作成することなく意味的に類似した新しいソリューションを作成することができる。
探索力学の解析により、TSGPによって生成される解は、ベンチマーク手法によって生成される解よりも意味論的に類似していることが明らかとなり、セマンティックな解空間をよりよく探索することができる。
関連論文リスト
- Deep Transformed Gaussian Processes [0.0]
変換ガウス過程(英: Transformed Gaussian Processs、TGP)は、可逆変換を用いて、前者のプロセス(典型的にはGP)からサンプルを共分散から変換することによって定義される過程である。
本稿では,プロセスの階層化の傾向に従い,DTGP(Deep Transformed Gaussian Processs)と呼ばれるTGPの一般化を提案する。
実験では、提案したDTGPを複数の回帰データセットで評価し、優れたスケーラビリティと性能を実現した。
論文 参考訳(メタデータ) (2023-10-27T16:09:39Z) - Local Search, Semantics, and Genetic Programming: a Global Analysis [7.486818142115522]
Geometric Semantic Geometric Programming (GSGP) は、遺伝的プログラミング(GP)の変種の一つである。
本稿では GSM-LS と GSGP-reg のオーバーフィッティングを制限する複数の可能性を探る。
その結果、トレーニングデータと見当たらないデータの両方において、標準GSGPを一貫して上回る結果が得られた。
論文 参考訳(メタデータ) (2023-05-26T14:13:03Z) - Stochastic Gradient Descent-Ascent: Unified Theory and New Efficient
Methods [73.35353358543507]
SGDA(Gradient Descent-Ascent)は、min-max最適化と変分不等式問題(VIP)を解くための最も顕著なアルゴリズムの1つである。
本稿では,多種多様な降下指数法を網羅した統合収束解析を提案する。
本研究では,新しい分散化手法 (L-SVRGDA) や,新しい分散圧縮方式 (QSGDA, DIANA-SGDA, VR-DIANA-SGDA) ,座標ランダム化方式 (SEGA-SGDA) など,SGDAの新しい変種を開発した。
論文 参考訳(メタデータ) (2022-02-15T09:17:39Z) - Result Diversification by Multi-objective Evolutionary Algorithms with
Theoretical Guarantees [94.72461292387146]
両目的探索問題として結果の多様化問題を再構成し,多目的進化アルゴリズム(EA)を用いて解くことを提案する。
GSEMOが最適時間近似比1/2$を達成できることを理論的に証明する。
目的関数が動的に変化すると、GSEMOはこの近似比をランニングタイムで維持することができ、Borodinらによって提案されたオープンな問題に対処する。
論文 参考訳(メタデータ) (2021-10-18T14:00:22Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Using Traceless Genetic Programming for Solving Multiobjective
Optimization Problems [1.9493449206135294]
トレーレス・ジェネティック・プログラミング(Traceless Genetic Programming、TGP)は、プログラム自体よりもプログラムの出力に焦点をあてる場合に使われる遺伝的プログラミング(GP)の変種である。
TGPと組み合わせて2つの遺伝子操作子(クロスオーバーと挿入)が使用される。
数値実験により、TGPは非常に高速かつ十分に検討されたテスト問題を解くことができることが示された。
論文 参考訳(メタデータ) (2021-10-07T05:55:55Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Zoetrope Genetic Programming for Regression [2.642406403099596]
Zoetrope Genetic Programming (ZGP)アルゴリズムは、数学的表現のオリジナルの表現に基づいている。
ZGPは多数のパブリックドメイン回帰データセットを使用して検証される。
論文 参考訳(メタデータ) (2021-02-26T10:47:10Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z) - SGP-DT: Semantic Genetic Programming Based on Dynamic Targets [6.841231589814175]
本稿では動的ターゲット(SGP-DT)に基づく新しいセマンティックGP手法を提案する。
各ランの進化は、残差に基づいて新しい(動的)ターゲットによって導かれる。
SGP-DTは、エプシロン・レキシケースよりも平均23.19%小さいRMSE値を得る。
論文 参考訳(メタデータ) (2020-01-30T19:33:58Z) - Gated Path Selection Network for Semantic Segmentation [72.44994579325822]
我々は,適応的な受容場を学習することを目的とした,GPSNetという新しいネットワークを開発した。
GPSNetにおいて、我々はまず2次元のマルチスケールネットワーク、SuperNetを設計する。
望ましいセマンティックコンテキストを動的に選択するために、ゲート予測モジュールがさらに導入される。
論文 参考訳(メタデータ) (2020-01-19T12:32:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。