論文の概要: Adversarial Patch Generation for Automated Program Repair
- arxiv url: http://arxiv.org/abs/2012.11060v4
- Date: Sun, 3 Sep 2023 23:33:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 15:59:34.810355
- Title: Adversarial Patch Generation for Automated Program Repair
- Title(参考訳): 自動プログラム修復のための逆パッチ生成
- Authors: Abdulaziz Alhefdhi (1 and 2), Hoa Khanh Dam (1), Thanh Le-Cong (3),
Bach Le (3), Aditya Ghose (1) ((1) University of Wollongong, (2) Prince
Sattam bin Abdulaziz University, (3) The University of Melbourne)
- Abstract要約: NEVERMOREは、バグと修正の敵対的な性質にインスパイアされた、新しい学習ベースのメカニズムである。
NEVERMOREはGenerative Adrial Networksアーキテクチャに基づいて構築されており、人為的な修正を忠実に模倣する修正を生成するために、歴史的なバグ修正を訓練している。
実世界の500のバグに対する実証的な評価は、NEVERMOREがバグ修正に有効であることを示し、調査対象のバグの21.2%が人間の修正にマッチする修復を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated Program Repair has attracted significant research in recent years,
leading to diverse techniques that focus on two main directions: search-based
and semantic-based program repair. The former techniques often face challenges
due to the vast search space, resulting in difficulties in identifying correct
solutions, while the latter approaches are constrained by the capabilities of
the underlying semantic analyser, limiting their scalability. In this paper, we
propose NEVERMORE, a novel learning-based mechanism inspired by the adversarial
nature of bugs and fixes. NEVERMORE is built upon the Generative Adversarial
Networks architecture and trained on historical bug fixes to generate repairs
that closely mimic human-produced fixes. Our empirical evaluation on 500
real-world bugs demonstrates the effectiveness of NEVERMORE in bug-fixing,
generating repairs that match human fixes for 21.2% of the examined bugs.
Moreover, we evaluate NEVERMORE on the Defects4J dataset, where our approach
generates repairs for 4 bugs that remained unresolved by state-of-the-art
baselines. NEVERMORE also fixes another 8 bugs which were only resolved by a
subset of these baselines. Finally, we conduct an in-depth analysis of the
impact of input and training styles on NEVERMORE's performance, revealing where
the chosen style influences the model's bug-fixing capabilities.
- Abstract(参考訳): 自動プログラム修復は近年、検索ベースとセマンティックベースのプログラム修復という2つの主な方向性に焦点をあてる様々な技術に結びついている。
前者の手法は、巨大な検索空間のためにしばしば問題に直面し、正しい解決策を見つけるのが困難になるが、後者のアプローチは、基礎となるセマンティック分析器の機能によって制限され、スケーラビリティは制限される。
本稿では,バグや修正の敵対的性質に触発された,新しい学習ベースのメカニズムであるnevermoreを提案する。
NEVERMOREはGenerative Adversarial Networksアーキテクチャに基づいて構築されており、人為的な修正を忠実に模倣する修復を生成するために、歴史的なバグ修正を訓練している。
実世界の500のバグに対する実証的な評価は、NEVERMOREがバグ修正に有効であることを示し、調査対象のバグの21.2%が人間の修正にマッチする修復を生成する。
さらに,Defects4Jデータセット上でNEVERMOREを評価し,最先端のベースラインで未解決の4つのバグの修復を行う。
nevermoreはまた、これらのベースラインのサブセットによってのみ解決された8つのバグも修正した。
最後に,入力スタイルとトレーニングスタイルがnevermoreのパフォーマンスに与える影響を詳細に分析し,選択したスタイルがモデルのバグ修正機能に与える影響を明らかにする。
関連論文リスト
- How Far Can We Go with Practical Function-Level Program Repair? [12.195137917098041]
本稿では,少数ショット学習機構と補修関連情報が機能レベルAPRに及ぼす影響について検討する。
補修関連情報のパワーを活用するために,デュアルLLM フレームワークを採用した LLM ベースの関数レベル APR 手法,すなわち SRepair を提案する。
論文 参考訳(メタデータ) (2024-04-19T12:14:09Z) - A Deep Dive into Large Language Models for Automated Bug Localization and Repair [12.756202755547024]
大規模言語モデル(LLM)は、自動プログラム修復(APR)など、様々なソフトウェアエンジニアリングタスクにおいて顕著な効果を示している。
本研究では,LSMを用いた自動バグ修正について深く検討する。
異なるLLMを用いてバグの局所化と修正を分離することにより、多様なコンテキスト情報の効果的な統合が可能になる。
Toggleは、CodeXGLUEコード改善ベンチマークで、新しい最先端(SOTA)パフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-04-17T17:48:18Z) - Enhancing Redundancy-based Automated Program Repair by Fine-grained
Pattern Mining [18.3896381051331]
本稿では,効果的なパッチ生成を導くための2段階のパターンマイニングプロセスを含むRepattという新しい修復手法を提案する。
我々は広く使われているDefects4Jベンチマークの実験を行い、Repattを8つの最先端のAPRアプローチと比較した。
論文 参考訳(メタデータ) (2023-12-26T08:42:32Z) - GAMMA: Revisiting Template-based Automated Program Repair via Mask
Prediction [14.741742268621403]
不適切なドナーコードは、修正パターンが正しい場合でも、プラウジブルだが不正なパッチ生成を引き起こす可能性がある。
本稿では,ドナーコード生成のための大規模事前学習言語モデルを直接活用するGAMMAを提案する。
その結果、GAMMAはDefects4J-v1.2の82のバグを正しく修復し、20.59%(14のバグ)と26.15%(17のバグ)を以前の最先端のテンプレートベースのアプローチであるTBarと学習ベースの1つのRecoderに対して改善した。
論文 参考訳(メタデータ) (2023-09-17T15:49:40Z) - RAP-Gen: Retrieval-Augmented Patch Generation with CodeT5 for Automatic
Program Repair [75.40584530380589]
新たな検索型パッチ生成フレームワーク(RAP-Gen)を提案する。
RAP-Gen 以前のバグ修正ペアのリストから取得した関連する修正パターンを明示的に活用する。
RAP-GenをJavaScriptのTFixベンチマークとJavaのCode RefinementとDefects4Jベンチマークの2つのプログラミング言語で評価する。
論文 参考訳(メタデータ) (2023-09-12T08:52:56Z) - Automatically Correcting Large Language Models: Surveying the landscape
of diverse self-correction strategies [104.32199881187607]
大規模言語モデル(LLM)は、幅広いNLPタスクで顕著な性能を示した。
これらの欠陥を正すための有望なアプローチは自己補正であり、LLM自体が自身の出力で問題を修正するために誘導される。
本稿では,この新技術について概観する。
論文 参考訳(メタデータ) (2023-08-06T18:38:52Z) - Is Self-Repair a Silver Bullet for Code Generation? [68.02601393906083]
大規模な言語モデルは、コード生成において顕著な適性を示しているが、それでも複雑なタスクを実行するのに苦労している。
自己修復(Self-repair) — モデルが自身のコードをデバッグし、修復する — は、最近、パフォーマンスを向上する一般的な方法になっている。
我々は,Code Llama, GPT-3.5, GPT-4によるHumanEvalとAPPSの自己修復能力について分析した。
論文 参考訳(メタデータ) (2023-06-16T15:13:17Z) - Reinforcement Learning for Mutation Operator Selection in Automated Program Repair [11.756822700775668]
プログラム修復における突然変異演算子の選択に対する強化学習に基づくアプローチの有効性について検討する。
提案手法は, 言語, プログラミングレベル, 検索戦略であり, 既存の補修ツールに容易に拡張できる。
Defects4Jベンチマークから,実世界の353のバグに対するアプローチを評価した。
論文 参考訳(メタデータ) (2023-06-09T10:09:16Z) - BigIssue: A Realistic Bug Localization Benchmark [89.8240118116093]
BigIssueは、現実的なバグローカライゼーションのためのベンチマークである。
実際のJavaバグと合成Javaバグの多様性を備えた一般的なベンチマークを提供する。
われわれは,バグローカライゼーションの最先端技術として,APRの性能向上と,現代の開発サイクルへの適用性の向上を期待している。
論文 参考訳(メタデータ) (2022-07-21T20:17:53Z) - DapStep: Deep Assignee Prediction for Stack Trace Error rePresentation [61.99379022383108]
本稿では,バグトリアージ問題を解決するための新しいディープラーニングモデルを提案する。
モデルは、注目された双方向のリカレントニューラルネットワークと畳み込みニューラルネットワークに基づいている。
ランキングの質を向上させるために,バージョン管理システムのアノテーションから追加情報を利用することを提案する。
論文 参考訳(メタデータ) (2022-01-14T00:16:57Z) - Graph-based, Self-Supervised Program Repair from Diagnostic Feedback [108.48853808418725]
本稿では,ソースコードの修復や診断フィードバックに関連するシンボルを結合するプログラムフィードバックグラフを提案する。
次に、推論プロセスのモデル化にグラフニューラルネットワークを適用します。
オンラインで利用可能なラベルのないプログラムを活用するプログラム修復のための自己指導型学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-05-20T07:24:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。