論文の概要: BUGSPHP: A dataset for Automated Program Repair in PHP
- arxiv url: http://arxiv.org/abs/2401.07356v2
- Date: Sun, 21 Jan 2024 15:22:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 19:17:04.260850
- Title: BUGSPHP: A dataset for Automated Program Repair in PHP
- Title(参考訳): BUGSPHP:PHPの自動プログラム修復のためのデータセット
- Authors: K.D. Pramod, W.T.N. De Silva, W.U.K. Thabrew, Ridwan Shariffdeen,
Sandareka Wickramanayake
- Abstract要約: 本稿では,BUGSPHPと呼ばれる実世界のアプリケーションに対するバグのベンチマークデータセットを提案する。
トレーニングデータセットには600,000以上のバグ修正コミットが含まれている。
テストデータセットには、開発者が提供するテストケースを備えた手作業によるバグ修正コミット513が含まれている。
- 参考スコア(独自算出の注目度): 2.236957801565796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated Program Repair (APR) improves developer productivity by saving
debugging and bug-fixing time. While APR has been extensively explored for
C/C++ and Java programs, there is little research on bugs in PHP programs due
to the lack of a benchmark PHP bug dataset. This is surprising given that PHP
has been one of the most widely used server-side languages for over two
decades, being used in a variety of contexts such as e-commerce, social
networking, and content management. This paper presents a benchmark dataset of
PHP bugs on real-world applications called BUGSPHP, which can enable research
on analysis, testing, and repair for PHP programs. The dataset consists of
training and test datasets, separately curated from GitHub and processed
locally. The training dataset includes more than 600,000 bug-fixing commits.
The test dataset contains 513 manually validated bug-fixing commits equipped
with developer-provided test cases to assess patch correctness.
- Abstract(参考訳): 自動プログラム修正(APR)は、デバッグとバグ修正時間を節約することで開発者の生産性を向上させる。
APRはC/C++とJavaプログラムで広く研究されているが、ベンチマークPHPバグデータセットがないため、PHPプログラムのバグについてはほとんど研究されていない。
PHPが20年以上にわたって最も広く使われているサーバーサイド言語の一つであり、eコマース、ソーシャルネットワーク、コンテンツ管理といったさまざまなコンテキストで使われていることは驚くべきことです。
本稿では,実世界のアプリケーションであるBUGSPHPにおけるPHPバグのベンチマークデータセットを提案する。
データセットはトレーニングとテストデータセットで構成され、GitHubから別々にキュレーションされ、ローカルに処理される。
トレーニングデータセットには600,000以上のバグ修正コミットが含まれている。
テストデータセットには、開発者が提供するテストケースを備えた手作業によるバグ修正コミット513が含まれている。
関連論文リスト
- Fuzzing the PHP Interpreter via Dataflow Fusion [13.303933700280343]
本稿では,PHPインタプリタにおけるメモリエラーの検出に特化して設計された,最初の自動ファジリングフレームワークであるFlowFusionを紹介する。
評価では、FlowFusionは、PHPインタプリタで56の未知のメモリエラーを特定し、38の修正と4の確認を行った。
FlowFusionは最先端のファズーであるAFL++とPolyglotより優れており、24時間のファズー後に24%のコードをカバーする。
論文 参考訳(メタデータ) (2024-10-29T03:54:59Z) - Yama: Precise Opcode-based Data Flow Analysis for Detecting PHP Applications Vulnerabilities [4.262259005587605]
Yama は、PHP のための文脈に敏感で経路に敏感な相互言語間データフロー解析手法である。
我々は,PHPオペコードの正確なセマンティクスと明確な制御フローにより,データフロー解析をより正確かつ効率的に行えることを発見した。
我々は,基本データフロー解析機能,複雑な意味解析機能,実世界のアプリケーションにおける脆弱性発見機能という3つの側面からヤマを評価した。
論文 参考訳(メタデータ) (2024-10-16T08:14:37Z) - Towards Practical and Useful Automated Program Repair for Debugging [4.216808129651161]
PracAPRは統合開発環境(IDE)で動作する対話型修復システムである
PracAPRはテストスイートやプログラムの再実行を必要としない。
論文 参考訳(メタデータ) (2024-07-12T03:19:54Z) - KGym: A Platform and Dataset to Benchmark Large Language Models on Linux Kernel Crash Resolution [59.20933707301566]
大規模言語モデル(LLM)は、ますます現実的なソフトウェア工学(SE)タスクにおいて一貫して改善されている。
現実世界のソフトウェアスタックでは、Linuxカーネルのような基本的なシステムソフトウェアの開発にSEの取り組みが費やされています。
このような大規模システムレベルのソフトウェアを開発する際にMLモデルが有用かどうかを評価するため、kGymとkBenchを紹介する。
論文 参考訳(メタデータ) (2024-07-02T21:44:22Z) - A Novel Approach for Automatic Program Repair using Round-Trip
Translation with Large Language Models [50.86686630756207]
研究によると、ある文の文法的誤りは、それを他の言語に翻訳し、その語を返せば修正できる。
現在の自動プログラム修復(APR)生成モデルは、ソースコードで事前訓練され、修正のために微調整されている。
本稿では,あるプログラミング言語から別のプログラミング言語,あるいは自然言語へのコード変換,そして,その逆といった,微調整ステップをバイパスし,ラウンド・トリップ変換(RTT)を用いる手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T22:36:31Z) - RAP-Gen: Retrieval-Augmented Patch Generation with CodeT5 for Automatic
Program Repair [75.40584530380589]
新たな検索型パッチ生成フレームワーク(RAP-Gen)を提案する。
RAP-Gen 以前のバグ修正ペアのリストから取得した関連する修正パターンを明示的に活用する。
RAP-GenをJavaScriptのTFixベンチマークとJavaのCode RefinementとDefects4Jベンチマークの2つのプログラミング言語で評価する。
論文 参考訳(メタデータ) (2023-09-12T08:52:56Z) - Bugsplainer: Leveraging Code Structures to Explain Software Bugs with
Neural Machine Translation [4.519754139322585]
Bugsplainerは、バグ修正コミットの大規模なコーパスから学ぶことによって、ソフトウェアバグの自然言語説明を生成する。
Bugsplainerはバグを推論するためにコード構造を利用し、テキスト生成モデルの微調整バージョンであるCodeT5を採用している。
論文 参考訳(メタデータ) (2023-08-23T17:35:16Z) - Using Developer Discussions to Guide Fixing Bugs in Software [51.00904399653609]
我々は,タスク実行前に利用可能であり,また自然発生しているバグレポートの議論を,開発者による追加情報の必要性を回避して利用することを提案する。
このような議論から派生したさまざまな自然言語コンテキストがバグ修正に役立ち、オラクルのバグ修正コミットに対応するコミットメッセージの使用よりもパフォーマンスの向上につながることを実証する。
論文 参考訳(メタデータ) (2022-11-11T16:37:33Z) - BigIssue: A Realistic Bug Localization Benchmark [89.8240118116093]
BigIssueは、現実的なバグローカライゼーションのためのベンチマークである。
実際のJavaバグと合成Javaバグの多様性を備えた一般的なベンチマークを提供する。
われわれは,バグローカライゼーションの最先端技術として,APRの性能向上と,現代の開発サイクルへの適用性の向上を期待している。
論文 参考訳(メタデータ) (2022-07-21T20:17:53Z) - Break-It-Fix-It: Unsupervised Learning for Program Repair [90.55497679266442]
我々は2つの重要なアイデアを持つ新しいトレーニング手法であるBreak-It-Fix-It (BIFI)を提案する。
批判者は、実際の悪い入力でフィクスダーの出力をチェックし、トレーニングデータに良い(固定された)出力を追加する。
これらのアイデアに基づいて、よりペア化されたデータを生成するために、ブレーカとフィクスチャを同時に使用しながら、繰り返し更新する。
BIFIは既存のメソッドより優れており、GitHub-Pythonで90.5%、DeepFixで71.7%の修正精度がある。
論文 参考訳(メタデータ) (2021-06-11T20:31:04Z) - Generating Bug-Fixes Using Pretrained Transformers [11.012132897417592]
実世界のgithubからマイニングしたjavaメソッドのバグの検出と修正を学ぶ,データ駆動型プログラム修復手法を導入する。
ソースコードプログラムの事前トレーニングは,スクラッチからの教師ありトレーニングに比べて,33%のパッチ数を改善することを示す。
我々は,標準精度評価基準を非削除および削除のみの修正に洗練し,我々の最良モデルが従来よりも75%多くの非削除修正を生成することを示す。
論文 参考訳(メタデータ) (2021-04-16T05:27:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。