論文の概要: BUGSPHP: A dataset for Automated Program Repair in PHP
- arxiv url: http://arxiv.org/abs/2401.07356v2
- Date: Sun, 21 Jan 2024 15:22:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 19:17:04.260850
- Title: BUGSPHP: A dataset for Automated Program Repair in PHP
- Title(参考訳): BUGSPHP:PHPの自動プログラム修復のためのデータセット
- Authors: K.D. Pramod, W.T.N. De Silva, W.U.K. Thabrew, Ridwan Shariffdeen,
Sandareka Wickramanayake
- Abstract要約: 本稿では,BUGSPHPと呼ばれる実世界のアプリケーションに対するバグのベンチマークデータセットを提案する。
トレーニングデータセットには600,000以上のバグ修正コミットが含まれている。
テストデータセットには、開発者が提供するテストケースを備えた手作業によるバグ修正コミット513が含まれている。
- 参考スコア(独自算出の注目度): 2.236957801565796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated Program Repair (APR) improves developer productivity by saving
debugging and bug-fixing time. While APR has been extensively explored for
C/C++ and Java programs, there is little research on bugs in PHP programs due
to the lack of a benchmark PHP bug dataset. This is surprising given that PHP
has been one of the most widely used server-side languages for over two
decades, being used in a variety of contexts such as e-commerce, social
networking, and content management. This paper presents a benchmark dataset of
PHP bugs on real-world applications called BUGSPHP, which can enable research
on analysis, testing, and repair for PHP programs. The dataset consists of
training and test datasets, separately curated from GitHub and processed
locally. The training dataset includes more than 600,000 bug-fixing commits.
The test dataset contains 513 manually validated bug-fixing commits equipped
with developer-provided test cases to assess patch correctness.
- Abstract(参考訳): 自動プログラム修正(APR)は、デバッグとバグ修正時間を節約することで開発者の生産性を向上させる。
APRはC/C++とJavaプログラムで広く研究されているが、ベンチマークPHPバグデータセットがないため、PHPプログラムのバグについてはほとんど研究されていない。
PHPが20年以上にわたって最も広く使われているサーバーサイド言語の一つであり、eコマース、ソーシャルネットワーク、コンテンツ管理といったさまざまなコンテキストで使われていることは驚くべきことです。
本稿では,実世界のアプリケーションであるBUGSPHPにおけるPHPバグのベンチマークデータセットを提案する。
データセットはトレーニングとテストデータセットで構成され、GitHubから別々にキュレーションされ、ローカルに処理される。
トレーニングデータセットには600,000以上のバグ修正コミットが含まれている。
テストデータセットには、開発者が提供するテストケースを備えた手作業によるバグ修正コミット513が含まれている。
関連論文リスト
- MultiMend: Multilingual Program Repair with Context Augmentation and Multi-Hunk Patch Generation [2.7036595757881323]
MultiMendは学習ベースのAPRアプローチで、複数のプログラミング言語の修復性能を改善する。
ソースコード行を埋め込み、検索拡張生成を適用して、パッチ生成中に関連する行でバギーコンテキストを拡大する。
4つのプログラミング言語を持つ4つのベンチマークでMultiMendを評価し、最先端の手法と比較した。
論文 参考訳(メタデータ) (2025-01-27T13:37:43Z) - Evaluating Agent-based Program Repair at Google [9.62742759337993]
エージェントベースのプログラム修復は、複雑なバグをエンドツーエンドで自動的に解決する。
最近の研究は、人気のあるオープンソースSWE-Benchにおけるエージェントベースの修復アプローチの使用について検討している。
本稿では,企業コンテキストにおけるバグに対処するためのエージェント的アプローチの適用可能性について検討する。
論文 参考訳(メタデータ) (2025-01-13T18:09:25Z) - Leveraging Data Characteristics for Bug Localization in Deep Learning Programs [21.563130049562357]
本稿では,Deep Learning (DL)プログラムにおける構造的バグの検出とローカライズを行うTheiaを提案する。
Theiaは40のバグギープログラムにおいて57/75のバグをローカライズすることに成功しているのに対し,NeuraLintは17/75のバグをローカライズする前に構造バグをローカライズできる最先端のアプローチである。
論文 参考訳(メタデータ) (2024-12-08T01:52:06Z) - Fuzzing the PHP Interpreter via Dataflow Fusion [13.303933700280343]
本稿では,PHPインタプリタにおけるメモリエラーを検出する最初の自動ファジリングフレームワークであるFlowFusionを紹介する。
評価では、FlowFusionがPHPインタプリタに158の未知のバグを発見し、125が修正され11が確認された。
FlowFusionは最先端のファズーであるAFL++やPolyglotよりも優れており、24時間のファズー処理の後に24%のコードをカバーしている。
論文 参考訳(メタデータ) (2024-10-29T03:54:59Z) - Yama: Precise Opcode-based Data Flow Analysis for Detecting PHP Applications Vulnerabilities [4.262259005587605]
Yama は、PHP のための文脈に敏感で経路に敏感な相互言語間データフロー解析手法である。
我々は,PHPオペコードの正確なセマンティクスと明確な制御フローにより,データフロー解析をより正確かつ効率的に行えることを発見した。
我々は,基本データフロー解析機能,複雑な意味解析機能,実世界のアプリケーションにおける脆弱性発見機能という3つの側面からヤマを評価した。
論文 参考訳(メタデータ) (2024-10-16T08:14:37Z) - KGym: A Platform and Dataset to Benchmark Large Language Models on Linux Kernel Crash Resolution [59.20933707301566]
大規模言語モデル(LLM)は、ますます現実的なソフトウェア工学(SE)タスクにおいて一貫して改善されている。
現実世界のソフトウェアスタックでは、Linuxカーネルのような基本的なシステムソフトウェアの開発にSEの取り組みが費やされています。
このような大規模システムレベルのソフトウェアを開発する際にMLモデルが有用かどうかを評価するため、kGymとkBenchを紹介する。
論文 参考訳(メタデータ) (2024-07-02T21:44:22Z) - A Novel Approach for Automatic Program Repair using Round-Trip
Translation with Large Language Models [50.86686630756207]
研究によると、ある文の文法的誤りは、それを他の言語に翻訳し、その語を返せば修正できる。
現在の自動プログラム修復(APR)生成モデルは、ソースコードで事前訓練され、修正のために微調整されている。
本稿では,あるプログラミング言語から別のプログラミング言語,あるいは自然言語へのコード変換,そして,その逆といった,微調整ステップをバイパスし,ラウンド・トリップ変換(RTT)を用いる手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T22:36:31Z) - RAP-Gen: Retrieval-Augmented Patch Generation with CodeT5 for Automatic
Program Repair [75.40584530380589]
新たな検索型パッチ生成フレームワーク(RAP-Gen)を提案する。
RAP-Gen 以前のバグ修正ペアのリストから取得した関連する修正パターンを明示的に活用する。
RAP-GenをJavaScriptのTFixベンチマークとJavaのCode RefinementとDefects4Jベンチマークの2つのプログラミング言語で評価する。
論文 参考訳(メタデータ) (2023-09-12T08:52:56Z) - Using Developer Discussions to Guide Fixing Bugs in Software [51.00904399653609]
我々は,タスク実行前に利用可能であり,また自然発生しているバグレポートの議論を,開発者による追加情報の必要性を回避して利用することを提案する。
このような議論から派生したさまざまな自然言語コンテキストがバグ修正に役立ち、オラクルのバグ修正コミットに対応するコミットメッセージの使用よりもパフォーマンスの向上につながることを実証する。
論文 参考訳(メタデータ) (2022-11-11T16:37:33Z) - BigIssue: A Realistic Bug Localization Benchmark [89.8240118116093]
BigIssueは、現実的なバグローカライゼーションのためのベンチマークである。
実際のJavaバグと合成Javaバグの多様性を備えた一般的なベンチマークを提供する。
われわれは,バグローカライゼーションの最先端技術として,APRの性能向上と,現代の開発サイクルへの適用性の向上を期待している。
論文 参考訳(メタデータ) (2022-07-21T20:17:53Z) - Break-It-Fix-It: Unsupervised Learning for Program Repair [90.55497679266442]
我々は2つの重要なアイデアを持つ新しいトレーニング手法であるBreak-It-Fix-It (BIFI)を提案する。
批判者は、実際の悪い入力でフィクスダーの出力をチェックし、トレーニングデータに良い(固定された)出力を追加する。
これらのアイデアに基づいて、よりペア化されたデータを生成するために、ブレーカとフィクスチャを同時に使用しながら、繰り返し更新する。
BIFIは既存のメソッドより優れており、GitHub-Pythonで90.5%、DeepFixで71.7%の修正精度がある。
論文 参考訳(メタデータ) (2021-06-11T20:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。