論文の概要: AlgoPilot: Fully Autonomous Program Synthesis Without Human-Written Programs
- arxiv url: http://arxiv.org/abs/2501.06423v1
- Date: Sat, 11 Jan 2025 03:29:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:25:44.229275
- Title: AlgoPilot: Fully Autonomous Program Synthesis Without Human-Written Programs
- Title(参考訳): AlgoPilot: 人書きのプログラムを使わずに完全に自律的なプログラム合成
- Authors: Xiaoxin Yin,
- Abstract要約: AlgoPilotは人手によるプログラムやトラジェクトリを使わずに、完全に自動化されたプログラム合成のための画期的なアプローチである。
AlgoPilotは、Trajectory Language Model(TLM)によって導かれる強化学習を活用して、ゼロからアルゴリズムを合成する。
この研究は、アルゴリズム発見の新しいパラダイムを確立し、自律的なプログラム合成における将来の進歩の基盤となる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Program synthesis has traditionally relied on human-provided specifications, examples, or prior knowledge to generate functional algorithms. Existing methods either emulate human-written algorithms or solve specific tasks without generating reusable programmatic logic, limiting their ability to create novel algorithms. We introduce AlgoPilot, a groundbreaking approach for fully automated program synthesis without human-written programs or trajectories. AlgoPilot leverages reinforcement learning (RL) guided by a Trajectory Language Model (TLM) to synthesize algorithms from scratch. The TLM, trained on trajectories generated by random Python functions, serves as a soft constraint during the RL process, aligning generated sequences with patterns likely to represent valid algorithms. Using sorting as a test case, AlgoPilot demonstrates its ability to generate trajectories that are interpretable as classical algorithms, such as Bubble Sort, while operating without prior algorithmic knowledge. This work establishes a new paradigm for algorithm discovery and lays the groundwork for future advancements in autonomous program synthesis.
- Abstract(参考訳): プログラム合成は、伝統的に人為的な仕様、例、あるいは関数型アルゴリズムを生成するための事前知識に依存してきた。
既存の方法は、人間の書いたアルゴリズムをエミュレートするか、再利用可能なプログラム論理を生成することなく特定のタスクを解決し、新しいアルゴリズムを作成する能力を制限する。
AlgoPilotは人手によるプログラムやトラジェクトリを使わずに、完全に自動化されたプログラム合成のための画期的なアプローチである。
AlgoPilotは、Trajectory Language Model(TLM)によって導かれる強化学習(RL)を活用して、アルゴリズムをゼロから合成する。
ランダムなPython関数によって生成されたトラジェクトリに基づいてトレーニングされたTLMは、RLプロセス中にソフト制約として機能し、生成されたシーケンスを有効なアルゴリズムを表す可能性のあるパターンと整列する。
テストケースとしてソートを使用することで、AlgoPilotは、従来のアルゴリズム知識なしで動作しながら、Bubble Sortのような古典的なアルゴリズムとして解釈可能なトラジェクトリを生成する能力を示している。
この研究は、アルゴリズム発見の新しいパラダイムを確立し、自律的なプログラム合成における将来の進歩の基盤となる。
関連論文リスト
- Searching Latent Program Spaces [0.0]
本研究では,連続空間における潜伏プログラム上の分布を学習し,効率的な探索とテスト時間適応を可能にするプログラム誘導アルゴリズムを提案する。
テスト時間適応機構を利用して、トレーニング分布を超えて一般化し、目に見えないタスクに適応できることを示す。
論文 参考訳(メタデータ) (2024-11-13T15:50:32Z) - Searching for More Efficient Dynamic Programs [61.79535031840558]
本稿では,プログラム変換の集合,変換プログラムの効率を評価するための単純な指標,およびこの指標を改善するための探索手順について述べる。
実際に、自動検索は初期プログラムの大幅な改善を見出すことができることを示す。
論文 参考訳(メタデータ) (2021-09-14T20:52:55Z) - Waypoint Planning Networks [66.72790309889432]
本稿では,ローカルカーネル(A*のような古典的アルゴリズム)と学習アルゴリズムを用いたグローバルカーネルを用いたLSTMに基づくハイブリッドアルゴリズムを提案する。
我々は、WPNとA*を比較し、動き計画ネットワーク(MPNet)やバリューネットワーク(VIN)を含む関連する作業と比較する。
WPN の探索空間は A* よりもかなり小さいが、ほぼ最適な結果が得られることが示されている。
論文 参考訳(メタデータ) (2021-05-01T18:02:01Z) - Meta-Learning an Inference Algorithm for Probabilistic Programs [13.528656805820459]
本稿では,制約付き確率プログラムの後方参照アルゴリズムを学習するためのメタアルゴリズムを提案する。
このアプローチの重要な特徴は、モデル記述から直接情報を抽出するホワイトボックス推論アルゴリズムの使用である。
論文 参考訳(メタデータ) (2021-03-01T04:05:11Z) - Evolving Reinforcement Learning Algorithms [186.62294652057062]
メタラーニング強化学習アルゴリズムの手法を提案する。
学習アルゴリズムはドメインに依存しないため、トレーニング中に見えない新しい環境に一般化することができる。
従来の制御タスク、gridworld型タスク、atariゲームよりも優れた一般化性能を得る2つの学習アルゴリズムに注目した。
論文 参考訳(メタデータ) (2021-01-08T18:55:07Z) - Process Discovery for Structured Program Synthesis [70.29027202357385]
プロセスマイニングにおける中核的なタスクは、イベントログデータから正確なプロセスモデルを学ぶことを目的としたプロセス発見である。
本稿では,ターゲットプロセスモデルとして(ブロック-)構造化プログラムを直接使用することを提案する。
我々は,このような構造化プログラムプロセスモデルの発見に対して,新たなボトムアップ・アグリメティブ・アプローチを開発する。
論文 参考訳(メタデータ) (2020-08-13T10:33:10Z) - Learning Differentiable Programs with Admissible Neural Heuristics [43.54820901841979]
ドメイン固有言語におけるプログラムとして表現される微分可能関数の学習問題について検討する。
我々は、この最適化問題を、プログラム構文のトップダウン導出を符号化した重み付きグラフの探索として構成する。
私たちの重要なイノベーションは、さまざまなニューラルネットワークのクラスを、プログラムの空間上の連続的な緩和と見なすことです。
論文 参考訳(メタデータ) (2020-07-23T16:07:39Z) - Discovering Reinforcement Learning Algorithms [53.72358280495428]
強化学習アルゴリズムは、いくつかのルールの1つに従ってエージェントのパラメータを更新する。
本稿では,更新ルール全体を検出するメタラーニング手法を提案する。
これには、一連の環境と対話することで、"何を予測するか"(例えば、値関数)と"どのように学習するか"の両方が含まれている。
論文 参考訳(メタデータ) (2020-07-17T07:38:39Z) - Strong Generalization and Efficiency in Neural Programs [69.18742158883869]
本稿では,ニューラルプログラム誘導の枠組みを強く一般化する効率的なアルゴリズムを学習する問題について検討する。
ニューラルネットワークの入力/出力インターフェースを慎重に設計し、模倣することで、任意の入力サイズに対して正しい結果を生成するモデルを学ぶことができる。
論文 参考訳(メタデータ) (2020-07-07T17:03:02Z) - Combining Geometric and Information-Theoretic Approaches for Multi-Robot
Exploration [16.010307336422148]
提案アルゴリズムの探索時間は,オフラインの最適探索アルゴリズムに対して($p$の関数として)競合的であることを示す。
このアルゴリズムは、単ボットポリゴン探索アルゴリズム、高次計画のための木探索アルゴリズム、低次計画のためのサブモジュラーオリエンテーアアルゴリズムに基づいている。
論文 参考訳(メタデータ) (2020-04-15T02:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。