論文の概要: RunBugRun -- An Executable Dataset for Automated Program Repair
- arxiv url: http://arxiv.org/abs/2304.01102v1
- Date: Mon, 3 Apr 2023 16:02:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 14:34:50.729674
- Title: RunBugRun -- An Executable Dataset for Automated Program Repair
- Title(参考訳): RunBugRun - プログラムの自動修復のための実行可能なデータセット
- Authors: Julian Aron Prenner and Romain Robbes
- Abstract要約: プログラム競合サイトに提出された45万個の小さなバグ/修正プログラムペアの完全な実行可能データセットを提示する。
プログラムをコンパイルし、安全に実行し、テストするためのインフラと、きめ細かいバグタイプのラベルを提供します。
- 参考スコア(独自算出の注目度): 15.670905650869704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, we can notice a transition to data-driven techniques in Automated
Program Repair (APR), in particular towards deep neural networks. This entails
training on hundreds of thousands or even millions of non-executable code
fragments. We would like to bring more attention to an aspect of code often
neglected in Neural Program Repair (NPR), namely its execution. Code execution
has several significant advantages. It allows for test-based evaluation of
candidate fixes and can provide valuable information to aid repair. In this
work we present a fully executable dataset of 450,000 small buggy/fixed program
pairs originally submitted to programming competition websites written in eight
different programming languages. Along with the dataset we provide
infrastructure to compile, safely execute and test programs as well as
fine-grained bug-type labels. To give a point of reference, we provide basic
evaluation results for two baselines, one based on a generate-and-validate
approach and one on deep learning. With this dataset we follow several goals:
we want to lift Neural Program Repair beyond fully static code representations,
foster the use of execution-based features and, by including several different
languages, counterbalance the predominance of Java in the current landscape of
APR datasets and benchmarks.
- Abstract(参考訳): 近年、APR(Automated Program repair)において、特にディープニューラルネットワークへのデータ駆動技術への移行が注目されている。
これは数十万、あるいは数百万の実行不能なコードフラグメントのトレーニングを伴います。
我々は、ニューラルプログラム修復(NPR)でしばしば無視されるコードの側面、すなわちその実行にもっと注意を向けたいと思います。
コード実行にはいくつかの大きな利点がある。
候補修正をテストベースで評価することができ、修復を支援する貴重な情報を提供することができる。
本研究では,8つの異なるプログラミング言語で書かれたプログラム競合サイトに提出された,45万個の小さなバグ/修正プログラムペアの完全な実行データセットを示す。
データセットとともに、プログラムをコンパイル、安全に実行、テストするためのインフラストラクチャと、きめ細かいバグタイプのラベルを提供します。
参照点を与えるため,提案手法は2つのベースラインに対して,1つは生成と検証に基づく評価結果であり,もう1つは深層学習に関する評価結果である。
このデータセットでは、完全な静的コード表現を超えて、ニューラルプログラムの修復を強化し、実行ベースの機能の使用を促進し、いくつかの異なる言語を含めることで、現在のAPRデータセットとベンチマークの状況において、Javaの優位性と相反する、いくつかの目標を達成したいと考えています。
関連論文リスト
- Input-Gen: Guided Generation of Stateful Inputs for Testing, Tuning, and Training [1.660242118349614]
入力は、コードのように、大規模に自動生成できることを示します。
当社のアプローチでは,ComPileデータセットモジュールの90%に対して,初期メモリ状態を含む有効な入力を生成することができる。
論文 参考訳(メタデータ) (2024-06-13T06:09:16Z) - Benchmarking Educational Program Repair [4.981275578987307]
大きな言語モデル(LLM)は、学習リソースの生成、エラーメッセージの改善、コードに対するフィードバックの提供に使用することができる。
競合するアプローチの公平な比較を容易にするため、標準化とベンチマークが強く求められている。
本稿では,新しい教育プログラム修復ベンチマークを提案する。
論文 参考訳(メタデータ) (2024-05-08T18:23:59Z) - NExT: Teaching Large Language Models to Reason about Code Execution [50.93581376646064]
大規模言語モデル(LLM)のコードは通常、プログラムの表面テキスト形式に基づいて訓練される。
NExTは,プログラムの実行トレースを検査し,実行時の動作を判断する手法である。
論文 参考訳(メタデータ) (2024-04-23T01:46:32Z) - A Novel Approach for Automatic Program Repair using Round-Trip
Translation with Large Language Models [50.86686630756207]
研究によると、ある文の文法的誤りは、それを他の言語に翻訳し、その語を返せば修正できる。
現在の自動プログラム修復(APR)生成モデルは、ソースコードで事前訓練され、修正のために微調整されている。
本稿では,あるプログラミング言語から別のプログラミング言語,あるいは自然言語へのコード変換,そして,その逆といった,微調整ステップをバイパスし,ラウンド・トリップ変換(RTT)を用いる手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T22:36:31Z) - Flexible Control Flow Graph Alignment for Delivering Data-Driven
Feedback to Novice Programming Learners [0.847136673632881]
我々は,オープンソースのデータ駆動型自動修復手法であるCLARAに,いくつかの改良を加えて提案する。
我々はCLARAの抽象構文木プロセッサを拡張し、一般的な入門プログラミング構造を扱う。
CLARAの修復プロセスを適用するために,不正プログラムの制御フローグラフを修正した。
論文 参考訳(メタデータ) (2024-01-02T19:56:50Z) - Leveraging Generative AI: Improving Software Metadata Classification
with Generated Code-Comment Pairs [0.0]
ソフトウェア開発では、コードの理解とコラボレーションを強化する上で、コードコメントが重要な役割を果たす。
本研究では,コードコメントを「有用」あるいは「有用でない」と客観的に分類する課題について論じる。
本稿では,この分類プロセスを自動化するために,コンテキスト化された埋め込み,特にBERTを利用する新しいソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-14T12:09:43Z) - Teaching Large Language Models to Self-Debug [62.424077000154945]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
本稿では,大規模言語モデルで予測プログラムを数発のデモでデバッグする自己デバッグを提案する。
論文 参考訳(メタデータ) (2023-04-11T10:43:43Z) - Detect-Localize-Repair: A Unified Framework for Learning to Debug with
CodeT5 [14.712753336831172]
本稿では,事前訓練されたプログラミング言語モデルであるCodeT5に基づく,新しい統一型emphDetect-Localize-Repairフレームワークを提案する。
我々のモデルは、NLPとソフトウェア工学の両方の領域から既存のベースラインを著しく上回ります。
論文 参考訳(メタデータ) (2022-11-27T16:11:29Z) - Natural Language to Code Translation with Execution [82.52142893010563]
実行結果-プログラム選択のための最小ベイズリスク復号化。
そこで本研究では,自然言語からコードへのタスクにおいて,事前訓練されたコードモデルの性能を向上することを示す。
論文 参考訳(メタデータ) (2022-04-25T06:06:08Z) - AVATAR: A Parallel Corpus for Java-Python Program Translation [77.86173793901139]
プログラム翻訳とは、ある言語から別の言語へソースコードを移行することを指す。
AVATARは9,515のプログラミング問題とそのソリューションをJavaとPythonという2つの人気のある言語で記述したものです。
論文 参考訳(メタデータ) (2021-08-26T05:44:20Z) - Graph-based, Self-Supervised Program Repair from Diagnostic Feedback [108.48853808418725]
本稿では,ソースコードの修復や診断フィードバックに関連するシンボルを結合するプログラムフィードバックグラフを提案する。
次に、推論プロセスのモデル化にグラフニューラルネットワークを適用します。
オンラインで利用可能なラベルのないプログラムを活用するプログラム修復のための自己指導型学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-05-20T07:24:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。