論文の概要: Reinforced Linear Genetic Programming
- arxiv url: http://arxiv.org/abs/2601.09736v1
- Date: Wed, 07 Jan 2026 04:15:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.817043
- Title: Reinforced Linear Genetic Programming
- Title(参考訳): 強化線形遺伝的プログラミング
- Authors: Urmzd Mukhammadnaim,
- Abstract要約: この論文は、線形遺伝的プログラミング(LGP)上でQ-Learningを用いて最適なレジスタ-アクションの割り当てを学習する新しいアプローチを提案する。
そうすることで、メモリセーフなRustで書かれた新しいフレームワーク"linear-gp"を導入します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Linear Genetic Programming (LGP) is a powerful technique that allows for a variety of problems to be solved using a linear representation of programs. However, there still exists some limitations to the technique, such as the need for humans to explicitly map registers to actions. This thesis proposes a novel approach that uses Q-Learning on top of LGP, Reinforced Linear Genetic Programming (RLGP) to learn the optimal register-action assignments. In doing so, we introduce a new framework "linear-gp" written in memory-safe Rust that allows for extensive experimentation for future works.
- Abstract(参考訳): 線形遺伝的プログラミング(LGP)は、プログラムの線形表現を用いて様々な問題を解くことができる強力な手法である。
しかしながら、人間が明示的にレジスタをアクションにマップする必要性など、このテクニックにはいくつかの制限がある。
本稿では,LGP上にQ-Learningを用いた線形遺伝的プログラミング(RLGP)を用いて,最適なレジスタ-アクションの割り当てを学習する手法を提案する。
そうすることで、メモリセーフなRustで書かれた新しいフレームワーク"linear-gp"を導入します。
関連論文リスト
- Training Deep Learning Models with Norm-Constrained LMOs [56.00317694850397]
線形最小化オラクル(LMO)を用いて問題の幾何学に適応する新しいアルゴリズム群を提案する。
我々は,Adamに頼らずに,我々のアルゴリズムであるScionを用いたナノGPTトレーニングの大幅な高速化を示す。
論文 参考訳(メタデータ) (2025-02-11T13:10:34Z) - Tractable Offline Learning of Regular Decision Processes [50.11277112628193]
この研究は、正則決定過程(RDP)と呼ばれる非マルコフ環境のクラスにおけるオフライン強化学習(RL)を研究する。
インスは、未来の観測と過去の相互作用からの報酬の未知の依存を実験的に捉えることができる。
多くのアルゴリズムは、まずこの未知の依存関係を自動学習技術を用いて再構築する。
論文 参考訳(メタデータ) (2024-09-04T14:26:58Z) - Explaining Genetic Programming Trees using Large Language Models [2.909922147268382]
遺伝的プログラミング(GP)は、特に次元の減少に使用される場合、説明可能な結果を生成する可能性がある。
本研究では,eXplainable AI (XAI) と大言語モデル (LLMs) を活用することにより,GPに基づく非線形次元削減の解釈可能性を向上させる可能性について検討する。
論文 参考訳(メタデータ) (2024-03-06T01:38:42Z) - How Graph Neural Networks Learn: Lessons from Training Dynamics [80.41778059014393]
グラフニューラルネットワーク(GNN)の関数空間におけるトレーニングダイナミクスについて検討する。
GNNの勾配勾配勾配最適化は暗黙的にグラフ構造を利用して学習関数を更新する。
この発見は、学習したGNN関数が一般化した時期と理由に関する新たな解釈可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-08T10:19:56Z) - Machines Explaining Linear Programs [17.103787431518683]
ニューラルネットワークを説明する属性法を線形プログラムに拡張する。
これらの手法はモデル入力に対する関連スコアを提供することでモデルを説明する。
また,摂動に基づく帰属法をLPに適用する手法を提案する。
論文 参考訳(メタデータ) (2022-06-14T22:52:25Z) - Integrated Gradient attribution for Gaussian Processes with non-Gaussian likelihoods [0.0]
ガウス過程(GP)モデルは確率的機械学習において強力なツールである。
モデルの意思決定プロセスを透過的で説明可能なものにすることの必要性は、現在、研究の大きな焦点となっている。
本稿では,非ガウス的GPモデルに対して,積分グラディエントに基づく説明可能性を適用する手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T14:11:00Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Text Generation with Efficient (Soft) Q-Learning [91.47743595382758]
強化学習(RL)は、任意のタスクメトリクスを報酬としてプラグインすることで、より柔軟なソリューションを提供する。
ソフトQ-ラーニングの観点からテキスト生成のための新しいRL式を導入する。
雑音/負の例から学習し、敵攻撃、即時生成など、幅広いタスクにアプローチを適用する。
論文 参考訳(メタデータ) (2021-06-14T18:48:40Z) - Soft Genetic Programming Binary Classifiers [0.0]
ソフト」遺伝的プログラミング(SGP)が開発され、論理演算木はより柔軟になり、データセットに依存性を見出すことができる。
本稿では,SGP手法を用いたバイナリ分類器の構成法について述べる。
論文 参考訳(メタデータ) (2021-01-21T17:43:11Z) - Code Building Genetic Programming [0.0]
我々は、コード構築遺伝プログラミング(CBGP)を、これを実現するためのフレームワークとして紹介する。
CBGPは、ホスト言語のソースコードに実行または変換できる計算グラフを生成する。
論文 参考訳(メタデータ) (2020-08-09T04:33:04Z) - Certified Reinforcement Learning with Logic Guidance [78.2286146954051]
線形時間論理(LTL)を用いて未知の連続状態/動作マルコフ決定過程(MDP)のゴールを定式化できるモデルフリーなRLアルゴリズムを提案する。
このアルゴリズムは、トレースが仕様を最大確率で満たす制御ポリシーを合成することが保証される。
論文 参考訳(メタデータ) (2019-02-02T20:09:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。