論文の概要: The Right Prompts for the Job: Repair Code-Review Defects with Large
Language Model
- arxiv url: http://arxiv.org/abs/2312.17485v1
- Date: Fri, 29 Dec 2023 06:12:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-02 13:44:25.385079
- Title: The Right Prompts for the Job: Repair Code-Review Defects with Large
Language Model
- Title(参考訳): ジョブの正しいプロンプト:大規模言語モデルによるコードレビュー欠陥の修復
- Authors: Zelin Zhao, Zhaogui Xu, Jialong Zhu, Peng Di, Yuan Yao, Xiaoxing Ma
- Abstract要約: 自動プログラム修復(APR)技術は、コードレビュー(CR)プロセス中にプログラム欠陥を発見して修復する手作業を減らす可能性がある。
しかし、既存のAPRアプローチにまつわる限られた精度とかなりの時間的コストは、産業的な実践において採用を妨げている。
近年のLLM(Large Language Models)の進歩により、自然言語やプログラミング言語を理解する能力が向上し、レビューコメントに基づいたパッチの生成が可能になった。
- 参考スコア(独自算出の注目度): 15.885824575879763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic program repair (APR) techniques have the potential to reduce manual
efforts in uncovering and repairing program defects during the code review (CR)
process. However, the limited accuracy and considerable time costs associated
with existing APR approaches hinder their adoption in industrial practice. One
key factor is the under-utilization of review comments, which provide valuable
insights into defects and potential fixes. Recent advancements in Large
Language Models (LLMs) have enhanced their ability to comprehend natural and
programming languages, enabling them to generate patches based on review
comments. This paper conducts a comprehensive investigation into the effective
utilization of LLMs for repairing CR defects. In this study, various prompts
are designed and compared across mainstream LLMs using two distinct datasets
from human reviewers and automated checkers. Experimental results demonstrate a
remarkable repair rate of 72.97% with the best prompt, highlighting a
substantial improvement in the effectiveness and practicality of automatic
repair techniques.
- Abstract(参考訳): 自動プログラム修復(APR)技術は、コードレビュー(CR)プロセス中にプログラム欠陥を発見して修復する手作業を減らす可能性がある。
しかしながら、既存のaprアプローチに伴う正確さと時間的コストの制限は、彼らの産業的実践への採用を妨げている。
重要な要素の1つはレビューコメントの未使用であり、欠陥や潜在的な修正に関する貴重な洞察を提供する。
近年のLLM(Large Language Models)の進歩により、自然言語やプログラミング言語を理解する能力が向上し、レビューコメントに基づいたパッチの生成が可能になった。
本稿では, CR欠陥の修復にLLMを有効利用するための包括的調査を行う。
本研究では,人間のレビュアーと自動チェッカーの2つの異なるデータセットを用いて,主流のllm間でさまざまなプロンプトを設計,比較する。
実験の結果, 72.97%の顕著な補修率を示し, 自動補修技術の有効性と実用性を大幅に向上させた。
関連論文リスト
- A Novel Approach for Automatic Program Repair using Round-Trip
Translation with Large Language Models [50.86686630756207]
研究によると、ある文の文法的誤りは、それを他の言語に翻訳し、その語を返せば修正できる。
現在の自動プログラム修復(APR)生成モデルは、ソースコードで事前訓練され、修正のために微調整されている。
本稿では,あるプログラミング言語から別のプログラミング言語,あるいは自然言語へのコード変換,そして,その逆といった,微調整ステップをバイパスし,ラウンド・トリップ変換(RTT)を用いる手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T22:36:31Z) - Enhancing Redundancy-based Automated Program Repair by Fine-grained
Pattern Mining [18.3896381051331]
本稿では,効果的なパッチ生成を導くための2段階のパターンマイニングプロセスを含むRepattという新しい修復手法を提案する。
我々は広く使われているDefects4Jベンチマークの実験を行い、Repattを8つの最先端のAPRアプローチと比較した。
論文 参考訳(メタデータ) (2023-12-26T08:42:32Z) - Distilling and Retrieving Generalizable Knowledge for Robot Manipulation
via Language Corrections [47.376957236736814]
オンライン補正(DROC)の蒸留と検索について紹介する。
DROCは大規模言語モデル(LLM)ベースのシステムで、任意の形式の言語フィードバックに対応できる。
DROCは、知識ベースにおけるオンライン修正のシーケンスから、関連情報を効果的に蒸留できることを実証する。
論文 参考訳(メタデータ) (2023-11-17T18:00:20Z) - Cross-modal Active Complementary Learning with Self-refining
Correspondence [54.61307946222386]
既存手法のロバスト性を改善するために,クロスモーダルなロバスト補完学習フレームワーク(CRCL)を提案する。
ACLは、誤った監視を行うリスクを減らすために、アクティブで補完的な学習損失を利用する。
SCCは、モーメント補正を備えた複数の自己精製プロセスを使用して、対応を補正するために受容場を拡大する。
論文 参考訳(メタデータ) (2023-10-26T15:15:11Z) - Automated Repair of Declarative Software Specifications in the Era of
Large Language Models [12.995301758524935]
我々は,アロイ宣言言語で記述されたソフトウェア仕様の修復にOpenAIのChatGPTを利用することの有効性を評価する。
我々の研究では、ChatGPTは既存の技術と比べて不足しているものの、他の手法では対応できないバグの修正に成功していることがわかった。
論文 参考訳(メタデータ) (2023-10-19T02:30:42Z) - Large Language Models Cannot Self-Correct Reasoning Yet [78.16697476530994]
LLM(Large Language Models)は、非並列テキスト生成機能を備えた画期的な技術として登場した。
生成したコンテンツの正確性と適切性に関する懸念が続いている。
現代の方法論である自己補正がこれらの問題に対する対策として提案されている。
論文 参考訳(メタデータ) (2023-10-03T04:56:12Z) - Towards Reliable and Fluent Large Language Models: Incorporating
Feedback Learning Loops in QA Systems [10.58737969057445]
我々は,大規模な言語モデルによって生成された応答の引用,正しさ,および流布性を評価することができる評論家モデルを訓練するためのデータセットを構築した。
本稿では,批判モデルを利用して生成したテキストの異質な側面をリアルタイムにフィードバックする自動フィードバック機構を提案する。
提案手法の有効性を実験的に検証し,4%の精度向上とMAUVE測定値の約8%の精度向上を図った。
論文 参考訳(メタデータ) (2023-09-08T09:39:53Z) - Automatically Correcting Large Language Models: Surveying the landscape
of diverse self-correction strategies [104.32199881187607]
大規模言語モデル(LLM)は、幅広いNLPタスクで顕著な性能を示した。
これらの欠陥を正すための有望なアプローチは自己補正であり、LLM自体が自身の出力で問題を修正するために誘導される。
本稿では,この新技術について概観する。
論文 参考訳(メタデータ) (2023-08-06T18:38:52Z) - Editing Large Language Models: Problems, Methods, and Opportunities [51.903537096207]
本稿では, LLMのモデル編集に関わる問題, 方法, 機会を深く探究する。
本稿では,モデル編集に関わるタスク定義と課題の概観と,現在処理中の最も進歩的な手法の詳細な実証分析について述べる。
本研究の目的は,各編集手法の有効性と実現可能性に関する貴重な知見を提供することであり,特定のタスクやコンテキストに対して,最も適切な方法の選択に関する情報決定を行う上で,コミュニティを支援することである。
論文 参考訳(メタデータ) (2023-05-22T16:00:00Z) - A Survey of Learning-based Automated Program Repair [12.09968472868107]
自動プログラム修復(APR)は、ソフトウェアバグを自動修正することを目的としており、ソフトウェア開発とメンテナンスにおいて重要な役割を果たす。
近年のディープラーニング(DL)の進歩により、ニューラルネットワークを活用して大規模なオープンソースコードリポジトリからバグフィックスパターンを学ぶためのAPR技術が増えている。
本稿では,学習型APRコミュニティにおける最先端研究を要約するために,体系的な調査を行う。
論文 参考訳(メタデータ) (2023-01-09T11:08:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。