論文の概要: Language Models Can Teach Themselves to Program Better
- arxiv url: http://arxiv.org/abs/2207.14502v1
- Date: Fri, 29 Jul 2022 06:43:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 12:19:17.457338
- Title: Language Models Can Teach Themselves to Program Better
- Title(参考訳): 言語モデルはより良いプログラミングを教えることができる
- Authors: Patrick Haluptzok, Matthew Bowers, Adam Tauman Kalai
- Abstract要約: 大規模言語モデル(LM)は、非自明な推論とアルゴリズムの実装においてブレークスルーを達成した。
プログラミングパズルと呼ばれる新しいプログラミングの形式が導入されたが、自然言語の記述は不要である。
我々は,Pythonインタプリタによる正当性を検証した合成プログラミングパズルとソリューションの生成が,パフォーマンス向上にどのように役立つかを示す。
- 参考スコア(独自算出の注目度): 4.627023679353507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work shows how one can use large-scale language models (LMs) to
synthesize programming problems with verified solutions, in the form of
programming puzzles, which can then in turn be used to fine-tune those same
models, improving their performance. This work builds on two recent
developments. First, LMs have achieved breakthroughs in non-trivial reasoning
and algorithm implementation, generating code that can solve some
intermediate-level competitive programming problems. However, training code LMs
involves curated sets of natural-language problem descriptions and source-code
tests and solutions, which are limited in size. Second, a new format of
programming challenge called a programming puzzle was introduced, which does
not require a natural language description and is directly specified by a
source-code test. In this work we show how generating synthetic programming
puzzles and solutions, verified for correctness by a Python interpreter, can be
used to improve performance in solving test puzzles from P3, a public benchmark
set of Python Programming Puzzles. Additionally, we release a dataset of 1
million puzzles and solutions generated by the Codex model, which we show can
improve smaller models through fine-tuning.
- Abstract(参考訳): この研究は、大規模な言語モデル(LM)を使用して、検証されたソリューションでプログラミング問題を合成する方法を示し、プログラミングパズルの形で、それらのモデルを微調整し、パフォーマンスを向上させる。
この研究は2つの最近の開発に基づいている。
まず、LMは非自明な推論とアルゴリズムの実装においてブレークスルーを達成し、中間レベルの競合プログラミング問題を解くコードを生成する。
しかし、トレーニングコードlmsには、自然言語の問題記述のキュレーションセットと、サイズが制限されたソースコードテストとソリューションが含まれている。
第二に、自然言語記述を必要とせず、ソースコードテストによって直接指定されるプログラミングパズルと呼ばれる新しい形式のプログラミングチャレンジが導入された。
本稿では,Python インタプリタによる正当性を検証した合成プログラミングパズルとソリューションの生成が,Python プログラミングパズルの公開ベンチマークセットである P3 によるテストパズルの解法の性能向上にどのように役立つかを示す。
さらに、codexモデルによって生成された100万のパズルとソリューションのデータセットをリリースします。
関連論文リスト
- Learning to Reason via Program Generation, Emulation, and Search [33.11955431589091]
言語モデル(LM)によるプログラム合成は、多くの推論能力を解放した。
すべての推論タスクは、コードとして容易に表現できるわけではない。例えば、常識的推論、道徳的意思決定、皮肉な理解を含むタスクである。
我々は,プログラム合成スキルをこのようなタスクに拡張するために,コード生成とエミュレートされた実行(CoGEX)を提案する。
論文 参考訳(メタデータ) (2024-05-25T19:40:50Z) - A Novel Approach for Automatic Program Repair using Round-Trip
Translation with Large Language Models [50.86686630756207]
研究によると、ある文の文法的誤りは、それを他の言語に翻訳し、その語を返せば修正できる。
現在の自動プログラム修復(APR)生成モデルは、ソースコードで事前訓練され、修正のために微調整されている。
本稿では,あるプログラミング言語から別のプログラミング言語,あるいは自然言語へのコード変換,そして,その逆といった,微調整ステップをバイパスし,ラウンド・トリップ変換(RTT)を用いる手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T22:36:31Z) - The Consensus Game: Language Model Generation via Equilibrium Search [73.51411916625032]
言語モデル復号のための学習不要なゲーム理論を新たに導入する。
本手法では,正規化不完全情報シーケンシャルシグナリングゲームとして,言語モデルの復号化を行う。
EQUILIBRium-RANKINGをLLaMA-7Bに適用すると、より大型のLLaMA-65BとPaLM-540Bより優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-13T14:27:21Z) - Self-Taught Optimizer (STOP): Recursively Self-Improving Code Generation [23.31928097405939]
言語モデルに融合した足場プログラムを用いて自己改善を行う。
言語モデルにより、様々な自己改善戦略が提案されている。
これは、近代的な言語モデルであるGPT-4が、自分自身を改善のために呼び出すことができるコードを書くことができることを実証している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - LeTI: Learning to Generate from Textual Interactions [60.425769582343506]
本稿では,テキストインタラクション(LETI)から学習するLMの可能性を,バイナリラベルによる正当性をチェックするだけでなく,テキストフィードバックを通じて出力中のエラーをピンポイントし,説明する。
私たちの焦点はコード生成タスクであり、そこではモデルが自然言語命令に基づいてコードを生成する。
LETIは、目的のLMを用いて、自然言語命令、LM生成プログラム、テキストフィードバックの結合に基づいて、モデルを反復的に微調整する。
論文 参考訳(メタデータ) (2023-05-17T15:53:31Z) - Teaching Large Language Models to Self-Debug [62.424077000154945]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
本稿では,大規模言語モデルで予測プログラムを数発のデモでデバッグする自己デバッグを提案する。
論文 参考訳(メタデータ) (2023-04-11T10:43:43Z) - LEVER: Learning to Verify Language-to-Code Generation with Execution [64.36459105535]
本稿では,プログラムの実行結果の検証を学習することで,言語からコードへの生成を改善するシンプルな手法であるLEVERを提案する。
具体的には、LLMからサンプリングされたプログラムが、自然言語入力、プログラム自体とその実行結果に基づいて正しいか否かを判定するために、検証者を訓練する。
LEVER はベースコード LLMs (4.6% から 10.9% まで) を継続的に改善し、それらすべてに対して新しい最先端の結果を得る。
論文 参考訳(メタデータ) (2023-02-16T18:23:22Z) - PAL: Program-aided Language Models [112.94785609781503]
自然言語問題を理解するために,プログラム支援言語モデル(PaL)を提案する。
PaLはソリューションステップをPythonインタプリタのようなプログラムランタイムにオフロードする。
私たちは12のベンチマークで新しい最先端の結果を設定しました。
論文 参考訳(メタデータ) (2022-11-18T18:56:13Z) - Piloting Copilot and Codex: Hot Temperature, Cold Prompts, or Black
Magic? [5.714553194279462]
2つの言語モデルの様々な入力パラメータについて検討し、これらの入力パラメータの変動が生成したプログラムの品質に重大な影響を及ぼすかどうかを理解するために研究を行う。
その結果,入力パラメータの変動は言語モデルの性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-10-26T13:28:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。