論文の概要: Continuous Program Search
- arxiv url: http://arxiv.org/abs/2602.07659v1
- Date: Sat, 07 Feb 2026 18:41:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.745849
- Title: Continuous Program Search
- Title(参考訳): 連続プログラム探索
- Authors: Matthew Siper, Muhammad Umair Nasir, Ahmed Khalifa, Lisa Soros, Jay Azhang, Julian Togelius,
- Abstract要約: 潜在距離が振る舞いの意味を持つ連続的なプログラム空間を学習し、進化的アルゴリズムを変更することなくこの構造を利用する突然変異演算子を設計する。
制御された潜在摂動下での行動レベルのばらつきを追跡することで局所性を計測し,行動-局所的連続的な変動に対する経験的信頼領域を同定する。
等方的突然変異は時折高いピーク性能を達成するが、幾何コンパイルされた突然変異はより速く、より信頼性の高い進行をもたらす。
- 参考スコア(独自算出の注目度): 4.198653054660764
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Genetic Programming yields interpretable programs, but small syntactic mutations can induce large, unpredictable behavioral shifts, degrading locality and sample efficiency. We frame this as an operator-design problem: learn a continuous program space where latent distance has behavioral meaning, then design mutation operators that exploit this structure without changing the evolutionary optimizer. We make locality measurable by tracking action-level divergence under controlled latent perturbations, identifying an empirical trust region for behavior-local continuous variation. Using a compact trading-strategy DSL with four semantic components (long/short entry and exit), we learn a matching block-factorized embedding and compare isotropic Gaussian mutation over the full latent space to geometry-compiled mutation that restricts updates to semantically paired entry--exit subspaces and proposes directions using a learned flow-based model trained on logged mutation outcomes. Under identical $(μ+λ)$ evolution strategies and fixed evaluation budgets across five assets, the learned mutation operator discovers strong strategies using an order of magnitude fewer evaluations and achieves the highest median out-of-sample Sharpe ratio. Although isotropic mutation occasionally attains higher peak performance, geometry-compiled mutation yields faster, more reliable progress, demonstrating that semantically aligned mutation can substantially improve search efficiency without modifying the underlying evolutionary algorithm.
- Abstract(参考訳): 遺伝的プログラミングは解釈可能なプログラムを生成するが、小さな構文変異は大きな、予測不可能な行動変化を誘発し、局所性やサンプル効率を低下させる。
遅延距離が振る舞いの意味を持つ連続的なプログラム空間を学習し、進化オプティマイザを変更することなくこの構造を利用する突然変異演算子を設計する。
制御された潜在摂動下での行動レベルのばらつきを追跡することで局所性を計測し,行動-局所的連続的な変動に対する経験的信頼領域を同定する。
4つのセマンティック・コンポーネント(長短・短短)を持つコンパクトなトレーディング・ストラテジーDSLを用いて、ブロック分解された埋め込みを学習し、全潜在空間上の等方的ガウス変異を、意味的にペアリングされたエントリー・エグジット・サブ空間への更新を制限する幾何学的にコンパイルされた突然変異と比較し、ログ付き突然変異結果に基づいて訓練された学習フローベースモデルを用いて方向を提案する。
同一の$(μ+λ)$進化戦略と5つの資産にわたる固定された評価予算の下で、学習された突然変異作用素は、桁違いに少ない評価で強い戦略を発見し、サンプル外シャープ比の最高値を達成する。
等方的突然変異は時折高いピーク性能を達成するが、幾何コンパイルされた突然変異はより速く、より信頼性の高い進行をもたらす。
関連論文リスト
- Controlled Self-Evolution for Algorithmic Code Optimization [33.82967000330864]
自己進化的手法は、反復的な"生成-検証-精細"サイクルを通じてコード生成を強化する。
既存のアプローチでは、限られた予算内で優れた複雑さを持つソリューションを見つけることができません。
本稿では3つのキーコンポーネントからなる制御自己進化(CSE)を提案する。
論文 参考訳(メタデータ) (2026-01-12T09:23:13Z) - Weights to Code: Extracting Interpretable Algorithms from the Discrete Transformer [65.38883376379812]
本稿では,連続表現と離散記号論理のギャップを埋めるアーキテクチャである離散変換器を提案する。
実証的には、Discrete TransformerはRNNベースのベースラインに匹敵するパフォーマンスを達成するだけでなく、連続的な変数ドメインへの解釈可能性を大幅に拡張する。
論文 参考訳(メタデータ) (2026-01-09T12:49:41Z) - EvoLattice: Persistent Internal-Population Evolution through Multi-Alternative Quality-Diversity Graph Representations for LLM-Guided Program Discovery [2.1756081703276]
EvoLatticeは、単一の非巡回グラフ内の候補プログラムやエージェントの行動の全集団を表すフレームワークである。
各ノードは複数の永続的な選択肢を格納し、グラフを通る有効なパスは、それぞれ別の候補を定義する。
EvoLatticeは、ローカルデザインの選択がグローバルパフォーマンスにどのように影響するかを示す統計データを生成する。
論文 参考訳(メタデータ) (2025-12-15T19:43:06Z) - Neural Optimal Transport Meets Multivariate Conformal Prediction [58.43397908730771]
条件付きベクトル回帰(CVQR)のためのフレームワークを提案する。
CVQRは、ニューラルネットワークの最適輸送と量子化された最適化を組み合わせて、予測に適用する。
論文 参考訳(メタデータ) (2025-09-29T19:50:19Z) - PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは、ポイントクラウドマスマスキングオートエンコーダのグローバルな特徴表現を強化する。
本研究では,ネットワークが識別的表現を保ちながら,よりリッチな変換キューをキャプチャできる新たな損失を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Uncovering mesa-optimization algorithms in Transformers [61.06055590704677]
いくつかの自己回帰モデルは、入力シーケンスが処理されたときに学習でき、パラメータの変更を受けずに、それを行うように明示的に訓練されていない。
我々は,新しい入力が明らかになったときにモデルを調整するための補助学習アルゴリズムが,標準の次トーケン予測誤差最小化によって生まれることを示す。
本研究は、自己回帰損失最小化の産物としてコンテキスト内学習を説明し、新しい最適化ベースのトランスフォーマー層の設計を通知する。
論文 参考訳(メタデータ) (2023-09-11T22:42:50Z) - Deriving Differential Target Propagation from Iterating Approximate
Inverses [91.3755431537592]
本稿では,各層が学習した逆数に依存するターゲット伝搬の特定の形態が,ガウス-ニュートン勾配に基づく近似最適化に対応する更新規則を導出することを示す。
そこで我々は,各層における局所的自動エンコーダに基づく反復計算について検討し,より正確な目標伝搬のインバージョンを実現する。
論文 参考訳(メタデータ) (2020-07-29T22:34:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。