論文の概要: Adversarial Patch Generation for Automated Program Repair
- arxiv url: http://arxiv.org/abs/2012.11060v4
- Date: Sun, 3 Sep 2023 23:33:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 15:59:34.810355
- Title: Adversarial Patch Generation for Automated Program Repair
- Title(参考訳): 自動プログラム修復のための逆パッチ生成
- Authors: Abdulaziz Alhefdhi (1 and 2), Hoa Khanh Dam (1), Thanh Le-Cong (3),
Bach Le (3), Aditya Ghose (1) ((1) University of Wollongong, (2) Prince
Sattam bin Abdulaziz University, (3) The University of Melbourne)
- Abstract要約: NEVERMOREは、バグと修正の敵対的な性質にインスパイアされた、新しい学習ベースのメカニズムである。
NEVERMOREはGenerative Adrial Networksアーキテクチャに基づいて構築されており、人為的な修正を忠実に模倣する修正を生成するために、歴史的なバグ修正を訓練している。
実世界の500のバグに対する実証的な評価は、NEVERMOREがバグ修正に有効であることを示し、調査対象のバグの21.2%が人間の修正にマッチする修復を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated Program Repair has attracted significant research in recent years,
leading to diverse techniques that focus on two main directions: search-based
and semantic-based program repair. The former techniques often face challenges
due to the vast search space, resulting in difficulties in identifying correct
solutions, while the latter approaches are constrained by the capabilities of
the underlying semantic analyser, limiting their scalability. In this paper, we
propose NEVERMORE, a novel learning-based mechanism inspired by the adversarial
nature of bugs and fixes. NEVERMORE is built upon the Generative Adversarial
Networks architecture and trained on historical bug fixes to generate repairs
that closely mimic human-produced fixes. Our empirical evaluation on 500
real-world bugs demonstrates the effectiveness of NEVERMORE in bug-fixing,
generating repairs that match human fixes for 21.2% of the examined bugs.
Moreover, we evaluate NEVERMORE on the Defects4J dataset, where our approach
generates repairs for 4 bugs that remained unresolved by state-of-the-art
baselines. NEVERMORE also fixes another 8 bugs which were only resolved by a
subset of these baselines. Finally, we conduct an in-depth analysis of the
impact of input and training styles on NEVERMORE's performance, revealing where
the chosen style influences the model's bug-fixing capabilities.
- Abstract(参考訳): 自動プログラム修復は近年、検索ベースとセマンティックベースのプログラム修復という2つの主な方向性に焦点をあてる様々な技術に結びついている。
前者の手法は、巨大な検索空間のためにしばしば問題に直面し、正しい解決策を見つけるのが困難になるが、後者のアプローチは、基礎となるセマンティック分析器の機能によって制限され、スケーラビリティは制限される。
本稿では,バグや修正の敵対的性質に触発された,新しい学習ベースのメカニズムであるnevermoreを提案する。
NEVERMOREはGenerative Adversarial Networksアーキテクチャに基づいて構築されており、人為的な修正を忠実に模倣する修復を生成するために、歴史的なバグ修正を訓練している。
実世界の500のバグに対する実証的な評価は、NEVERMOREがバグ修正に有効であることを示し、調査対象のバグの21.2%が人間の修正にマッチする修復を生成する。
さらに,Defects4Jデータセット上でNEVERMOREを評価し,最先端のベースラインで未解決の4つのバグの修復を行う。
nevermoreはまた、これらのベースラインのサブセットによってのみ解決された8つのバグも修正した。
最後に,入力スタイルとトレーニングスタイルがnevermoreのパフォーマンスに与える影響を詳細に分析し,選択したスタイルがモデルのバグ修正機能に与える影響を明らかにする。
関連論文リスト
- ThinkRepair: Self-Directed Automated Program Repair [11.598008952093487]
プロンプトエンジニアリングによって指示された大規模言語モデル(LLM)は、バグ修正を含む多くのタスクに対処する強力な能力に多くの注目を集めている。
本稿では,自己指向型LLMベースの自動プログラム修復であるThinkRepairについて,収集フェーズと固定フェーズの2つの主要なフェーズを提案する。
ThinkRepairと12SOTA APRを比較した2つの広く研究されているデータセット(Defects4JとQuixBugs)の評価は、バグ修正におけるThinkRepairの優先度を示している。
論文 参考訳(メタデータ) (2024-07-30T15:17:07Z) - Leveraging Large Language Models for Efficient Failure Analysis in Game Development [47.618236610219554]
本稿では,テストの失敗の原因となるコードの変更を自動的に識別する手法を提案する。
このメソッドは、LLM(Large Language Models)を利用して、エラーメッセージと対応するコード変更を関連付ける。
当社のアプローチは新たに作成したデータセットで71%の精度に達しています。
論文 参考訳(メタデータ) (2024-06-11T09:21:50Z) - Hybrid Automated Program Repair by Combining Large Language Models and Program Analysis [12.7034916462208]
自動プログラム修復(APR)は、人間の開発者のバグ修正プロセスを合理化する可能性から、大きな注目を集めている。
本稿ではGIANTREPAIRと呼ばれる革新的なAPR手法を紹介する。
この知見に基づいて、GIANTREPAIRはまず、LLM生成したパッチからパッチスケルトンを構築して、パッチ空間を閉じ込め、その後、特定のプログラムに適した高品質なパッチを生成する。
論文 参考訳(メタデータ) (2024-06-03T05:05:12Z) - A Deep Dive into Large Language Models for Automated Bug Localization and Repair [12.756202755547024]
大規模言語モデル(LLM)は、自動プログラム修復(APR)など、様々なソフトウェアエンジニアリングタスクにおいて顕著な効果を示している。
本研究では,LSMを用いた自動バグ修正について深く検討する。
異なるLLMを用いてバグの局所化と修正を分離することにより、多様なコンテキスト情報の効果的な統合が可能になる。
Toggleは、CodeXGLUEコード改善ベンチマークで、新しい最先端(SOTA)パフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-04-17T17:48:18Z) - Enhancing Redundancy-based Automated Program Repair by Fine-grained
Pattern Mining [18.3896381051331]
本稿では,効果的なパッチ生成を導くための2段階のパターンマイニングプロセスを含むRepattという新しい修復手法を提案する。
我々は広く使われているDefects4Jベンチマークの実験を行い、Repattを8つの最先端のAPRアプローチと比較した。
論文 参考訳(メタデータ) (2023-12-26T08:42:32Z) - Automated Bug Generation in the era of Large Language Models [6.0770779409377775]
BugFarmは任意のコードを複数の複雑なバグに変換する。
BUGFARMが生成した1.9万以上の変異株から435k以上のバグを総合的に評価する。
論文 参考訳(メタデータ) (2023-10-03T20:01:51Z) - RAP-Gen: Retrieval-Augmented Patch Generation with CodeT5 for Automatic
Program Repair [75.40584530380589]
新たな検索型パッチ生成フレームワーク(RAP-Gen)を提案する。
RAP-Gen 以前のバグ修正ペアのリストから取得した関連する修正パターンを明示的に活用する。
RAP-GenをJavaScriptのTFixベンチマークとJavaのCode RefinementとDefects4Jベンチマークの2つのプログラミング言語で評価する。
論文 参考訳(メタデータ) (2023-09-12T08:52:56Z) - Is Self-Repair a Silver Bullet for Code Generation? [68.02601393906083]
大規模な言語モデルは、コード生成において顕著な適性を示しているが、それでも複雑なタスクを実行するのに苦労している。
自己修復(Self-repair) — モデルが自身のコードをデバッグし、修復する — は、最近、パフォーマンスを向上する一般的な方法になっている。
我々は,Code Llama, GPT-3.5, GPT-4によるHumanEvalとAPPSの自己修復能力について分析した。
論文 参考訳(メタデータ) (2023-06-16T15:13:17Z) - BigIssue: A Realistic Bug Localization Benchmark [89.8240118116093]
BigIssueは、現実的なバグローカライゼーションのためのベンチマークである。
実際のJavaバグと合成Javaバグの多様性を備えた一般的なベンチマークを提供する。
われわれは,バグローカライゼーションの最先端技術として,APRの性能向上と,現代の開発サイクルへの適用性の向上を期待している。
論文 参考訳(メタデータ) (2022-07-21T20:17:53Z) - DapStep: Deep Assignee Prediction for Stack Trace Error rePresentation [61.99379022383108]
本稿では,バグトリアージ問題を解決するための新しいディープラーニングモデルを提案する。
モデルは、注目された双方向のリカレントニューラルネットワークと畳み込みニューラルネットワークに基づいている。
ランキングの質を向上させるために,バージョン管理システムのアノテーションから追加情報を利用することを提案する。
論文 参考訳(メタデータ) (2022-01-14T00:16:57Z) - Graph-based, Self-Supervised Program Repair from Diagnostic Feedback [108.48853808418725]
本稿では,ソースコードの修復や診断フィードバックに関連するシンボルを結合するプログラムフィードバックグラフを提案する。
次に、推論プロセスのモデル化にグラフニューラルネットワークを適用します。
オンラインで利用可能なラベルのないプログラムを活用するプログラム修復のための自己指導型学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-05-20T07:24:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。