論文の概要: SignalGP-Lite: Event Driven Genetic Programming Library for Large-Scale
Artificial Life Applications
- arxiv url: http://arxiv.org/abs/2108.00382v1
- Date: Sun, 1 Aug 2021 07:20:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 05:15:04.473649
- Title: SignalGP-Lite: Event Driven Genetic Programming Library for Large-Scale
Artificial Life Applications
- Title(参考訳): SignalGP-Lite:大規模人工生命用イベント駆動型遺伝的プログラミングライブラリ
- Authors: Matthew Andres Moreno, Santiago Rodriguez Papa, Alexander Lalejini,
Charles Ofria
- Abstract要約: イベント駆動型遺伝的プログラミング表現は、相互作用集約問題における従来の命令的表現よりも優れていることが示されている。
イベント駆動型アプローチは、環境信号に応答してトリガーされるモジュールにゲノムコンテンツを整理する。
SignalGPライブラリは、従来のプログラム合成アプリケーションに対応している。
- 参考スコア(独自算出の注目度): 62.997667081978825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event-driven genetic programming representations have been shown to
outperform traditional imperative representations on interaction-intensive
problems. The event-driven approach organizes genome content into modules that
are triggered in response to environmental signals, simplifying simulation
design and implementation. Existing work developing event-driven genetic
programming methodology has largely used the SignalGP library, which caters to
traditional program synthesis applications. The SignalGP-Lite library enables
larger-scale artificial life experiments with streamlined agents by reducing
control flow overhead and trading run-time flexibility for better performance
due to compile-time configuration. Here, we report benchmarking experiments
that show an 8x to 30x speedup. We also report solution quality equivalent to
SignalGP on two benchmark problems originally developed to test the ability of
evolved programs to respond to a large number of signals and to modulate signal
response based on context.
- Abstract(参考訳): イベント駆動型遺伝的プログラミング表現は、相互作用集約問題における従来の命令的表現よりも優れていることが示されている。
イベント駆動アプローチは、ゲノムコンテンツを環境信号に応答してトリガーされるモジュールに整理し、シミュレーションの設計と実装を単純化する。
イベント駆動型遺伝的プログラミング手法の開発には、従来のプログラム合成アプリケーションに合わせたSignalGPライブラリが広く使用されている。
SignalGP-Liteライブラリは、制御フローのオーバーヘッドを減らし、コンパイル時の設定によるパフォーマンス向上のために実行時の柔軟性を交換することにより、合理化エージェントによる大規模な人工生命実験を可能にする。
ここでは8倍から30倍のスピードアップを示すベンチマーク実験を報告する。
また,多くの信号に応答し,コンテキストに基づいて信号応答を変調する,発展プログラムの能力をテストするために当初開発された2つのベンチマーク問題に対して,signalgpと同等のソリューション品質を報告した。
関連論文リスト
- Exploring RL-based LLM Training for Formal Language Tasks with Programmed Rewards [49.7719149179179]
本稿では,PPOを用いた強化学習(RL)の実現可能性について検討する。
我々は,生成した出力の質を自動的に評価するために,明示的な報酬関数をプログラムできるプログラミングなどの形式言語で表されるタスクに焦点をあてる。
以上の結果から,2つの形式言語タスクに対する純粋なRLベースのトレーニングは困難であり,単純な算術タスクにおいても成功は限られていることがわかった。
論文 参考訳(メタデータ) (2024-10-22T15:59:58Z) - MLXP: A Framework for Conducting Replicable Experiments in Python [63.37350735954699]
MLXPはPythonをベースとした,オープンソースの,シンプルで,軽量な実験管理ツールである。
実験プロセスを最小限のオーバーヘッドで合理化し、高いレベルの実践的オーバーヘッドを確保します。
論文 参考訳(メタデータ) (2024-02-21T14:22:20Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - SymbolNet: Neural Symbolic Regression with Adaptive Dynamic Pruning [1.0356366043809717]
モデル重み,入力特徴,数学的演算子を1つのトレーニングプロセスで動的に刈り取ることができる新しいフレームワークにおいて,記号回帰に対するニューラルネットワークアプローチを提案する。
提案手法は,計算資源制約の厳しい環境下での高次元データセットに対して,FPGA上でのナノ秒スケールレイテンシによる高速な推論を実現する。
論文 参考訳(メタデータ) (2024-01-18T12:51:38Z) - Racing Control Variable Genetic Programming for Symbolic Regression [22.101494818629963]
シンボリックレグレッションは、科学におけるAIにおいて最も重要なタスクの1つだ。
本稿では,複数の実験スケジュールを同時に実施するレーシング制御可変遺伝的プログラミング(Racing-CVGP)を提案する。
遺伝的プログラミングプロセスにおいて、優れた記号方程式を選択する際に用いられるような選択方式が実装され、有望な実験スケジュールが最終的に平均よりも勝つことが保証される。
論文 参考訳(メタデータ) (2023-09-13T21:38:06Z) - Transformer-based Planning for Symbolic Regression [18.90700817248397]
シンボリック・レグレッションのためのトランスフォーマーに基づく計画戦略であるTPSRを提案する。
従来の復号法とは異なり、TPSRは精度や複雑さなど、微分不可能なフィードバックの統合を可能にする。
我々の手法は最先端の手法より優れており、モデルの適合・複雑性トレードオフ、象徴的能力、騒音に対する堅牢性を高めている。
論文 参考訳(メタデータ) (2023-03-13T03:29:58Z) - Near-optimal Policy Identification in Active Reinforcement Learning [84.27592560211909]
AE-LSVI はカーネル化された最小二乗値 RL (LSVI) アルゴリズムの新しい変種であり、楽観主義と悲観主義を組み合わせて活発な探索を行う。
AE-LSVIは初期状態に対するロバスト性が必要な場合、様々な環境で他のアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-12-19T14:46:57Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z) - A Graph Deep Learning Framework for High-Level Synthesis Design Space
Exploration [11.154086943903696]
High-Level Synthesisは、アプリケーション固有の高速プロトタイピングのためのソリューションである。
本稿では,加速性能とハードウェアコストを共同で予測するグラフニューラルネットワークHLSを提案する。
提案手法は,一般的なシミュレータと同等の精度で予測できることを示す。
論文 参考訳(メタデータ) (2021-11-29T18:17:45Z) - Mining Environment Assumptions for Cyber-Physical System Models [0.19336815376402716]
出力要求を満たす入力信号のサブセットをコンパクトに記述できることを示す。
教師付き学習手法を用いて,そのような環境仮定をマイニングするアルゴリズムを提案する。
本研究では、交通や医療など複数の分野の現実データに関する実験結果を示す。
論文 参考訳(メタデータ) (2020-05-18T03:05:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。