論文の概要: Programming by Backprop: LLMs Acquire Reusable Algorithmic Abstractions During Code Training
- arxiv url: http://arxiv.org/abs/2506.18777v1
- Date: Mon, 23 Jun 2025 15:45:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:37.062963
- Title: Programming by Backprop: LLMs Acquire Reusable Algorithmic Abstractions During Code Training
- Title(参考訳): Backpropによるプログラミング: LLMがコードのトレーニング中に再利用可能なアルゴリズム抽象化を買収
- Authors: Jonathan Cook, Silvia Sapora, Arash Ahmadian, Akbir Khan, Tim Rocktaschel, Jakob Foerster, Laura Ruis,
- Abstract要約: ソースコード上での大規模言語モデル(LLM)のトレーニングは、その汎用推論能力を大幅に向上させる。
この効果の潜在的要因として,バックプロップ(PBB)によるプログラミングを提案する。
PBBは、自然発生したデータを反映した分布から引き出されたI/Oペアのトレーニングよりも、入力間でのプログラムの堅牢な評価につながることを示す。
- 参考スコア(独自算出の注目度): 2.743215038883958
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training large language models (LLMs) on source code significantly enhances their general-purpose reasoning abilities, but the mechanisms underlying this generalisation are poorly understood. In this paper, we propose Programming by Backprop (PBB) as a potential driver of this effect - teaching a model to evaluate a program for inputs by training on its source code alone, without ever seeing I/O examples. To explore this idea, we finetune LLMs on two sets of programs representing simple maths problems and algorithms: one with source code and I/O examples (w/ IO), the other with source code only (w/o IO). We find evidence that LLMs have some ability to evaluate w/o IO programs for inputs in a range of experimental settings, and make several observations. Firstly, PBB works significantly better when programs are provided as code rather than semantically equivalent language descriptions. Secondly, LLMs can produce outputs for w/o IO programs directly, by implicitly evaluating the program within the forward pass, and more reliably when stepping through the program in-context via chain-of-thought. We further show that PBB leads to more robust evaluation of programs across inputs than training on I/O pairs drawn from a distribution that mirrors naturally occurring data. Our findings suggest a mechanism for enhanced reasoning through code training: it allows LLMs to internalise reusable algorithmic abstractions. Significant scope remains for future work to enable LLMs to more effectively learn from symbolic procedures, and progress in this direction opens other avenues like model alignment by training on formal constitutional principles.
- Abstract(参考訳): ソースコード上での大規模言語モデル(LLM)の訓練は、その汎用推論能力を大幅に向上させるが、この一般化のメカニズムは理解されていない。
本稿では,この効果の潜在的な要因としてプログラミング・バイ・バックプロップ(PBB)を提案する。
ソースコードとI/O例(w/IO)と,ソースコードのみ(w/o IO)である。
LLMには様々な実験環境において,入力に対するw/o IOプログラムの評価能力があり,いくつかの観察結果が得られた。
第一に、PSBは意味論的に等価な言語記述ではなく、プログラムをコードとして提供する場合、かなりうまく機能する。
第二に、LLMはプログラムをフォワードパス内で暗黙的に評価することで、w/o IOプログラムの出力を直接生成できる。
さらに, PBBは, 自然発生データを反映した分布から引き出されたI/Oペアのトレーニングよりも, 入力間でのプログラムの堅牢な評価につながることを示す。
本研究は,LLMが再利用可能なアルゴリズム抽象化を内部化するための,コードトレーニングによる推論の強化機構を示唆する。
LLMがシンボリックな手続きからより効果的に学べるようにするための、将来の研究のための重要なスコープが残っており、この方向の進歩は、形式的な立憲原則のトレーニングによるモデルアライメントのような他の道を開く。
関連論文リスト
- SURGE: On the Potential of Large Language Models as General-Purpose Surrogate Code Executors [5.247363735860479]
大規模言語モデル(LLM)は、コードに関連するタスクにおいて顕著な機能を示した。
LLMが多様なプログラムを理解し処理する能力を考えると、汎用的なサロゲートモデルを構築する上で有望な方向性を示す。
SURGEは、1160ドル(約1万1000円)の価格問題で、8ドル(約8万3000円)の鍵となる側面をカバーしたベンチマークです。
オープンソースおよびプロプライエタリ LLM の実証分析を通じて,スケーリング法則,データ効率,予測精度を検討した。
論文 参考訳(メタデータ) (2025-02-16T15:38:19Z) - An Effective Approach to Embedding Source Code by Combining Large Language and Sentence Embedding Models [6.976968804436321]
本稿では,大言語と文埋め込みモデルを組み合わせた新しいソースコード埋め込み手法を提案する。
提案手法の性能を評価するため,異なるプログラミング言語を用いた3つのデータセットについて一連の実験を行った。
論文 参考訳(メタデータ) (2024-09-23T01:03:15Z) - Case2Code: Scalable Synthetic Data for Code Generation [105.89741089673575]
大規模言語モデル(LLM)は、コード生成において顕著なブレークスルーを示している。
最近の研究は、いくつかの強力なLLMによって生成された合成データをトレーニングすることで、コードLLMを改善している。
プログラムの表現性と正確性を利用したtextbfCase2Code タスクを提案する。
論文 参考訳(メタデータ) (2024-07-17T11:35:00Z) - Reasoning Runtime Behavior of a Program with LLM: How Far Are We? [25.451857140926943]
コードのための大規模な言語モデル(LLM)は、強力なコード理解と生成能力を示している。
コード推論は、コードLLMの最も重要な能力の1つである。
本稿では,プログラム実行によるLLMのコード推論能力と一貫性を評価するためのフレームワークであるRevalを提案する。
論文 参考訳(メタデータ) (2024-03-25T05:37:16Z) - Efficient Tool Use with Chain-of-Abstraction Reasoning [63.08202389132155]
大規模言語モデル(LLM)は、現実世界の知識に対する推論の基礎となる必要がある。
マルチステップ推論問題におけるツールの実行には,微調整LDMエージェントの課題が残されている。
マルチステップ推論におけるツールの活用方法として, LLM の新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-30T21:53:30Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Coarse-Tuning Models of Code with Reinforcement Learning Feedback [0.0]
コード上で事前訓練されたLarge Language Models (LLM) が、プログラム合成の主流のアプローチとして登場した。
コードの品質を評価する接地関数からのフィードバックを用いて、強化学習により事前学習したLLMをさらに訓練するRCCFを提案する。
論文 参考訳(メタデータ) (2023-05-25T22:09:08Z) - LEVER: Learning to Verify Language-to-Code Generation with Execution [64.36459105535]
本稿では,プログラムの実行結果の検証を学習することで,言語からコードへの生成を改善するシンプルな手法であるLEVERを提案する。
具体的には、LLMからサンプリングされたプログラムが、自然言語入力、プログラム自体とその実行結果に基づいて正しいか否かを判定するために、検証者を訓練する。
LEVER はベースコード LLMs (4.6% から 10.9% まで) を継続的に改善し、それらすべてに対して新しい最先端の結果を得る。
論文 参考訳(メタデータ) (2023-02-16T18:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。