論文の概要: Towards Speeding up Program Repair with Non-Autoregressive Model
- arxiv url: http://arxiv.org/abs/2510.01825v1
- Date: Thu, 02 Oct 2025 09:12:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.070462
- Title: Towards Speeding up Program Repair with Non-Autoregressive Model
- Title(参考訳): 非自己回帰モデルによるプログラム修復の高速化に向けて
- Authors: Zhenyu Yang, Yue Pan, Zhen Yang, Zhongxing Yu,
- Abstract要約: APRタスクのための最初のカスタマイズされたNAARコード生成モデルであるNARRepairを提案する。
NARRepair モデルは,1) オーバーコレクション問題を緩和するための修復動作予測器,2) トケン依存抽出器,3) 2段デコーダの3つの新しい特徴を特徴とする。
その結果,1)他のAPR技術と比較して,NARRepairモデルは限られた修理時間内で最高の性能を示し,2)ARベースのAPR技術と比較して,GPU環境でのNARRepairの修理速度は1.4-6.4倍に向上した。
- 参考スコア(独自算出の注目度): 19.198932753742277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Enlightened by the success of machine learning techniques in various application areas, recent years have witnessed a surge of research efforts on automatic program repair (APR) using machine learning techniques. Previous machine learning-based APR techniques essentially modified bugs in the autoregressive (AR) manner, which predicts future values based on past values. Due to the manner of token-by-token generation, the AR-based APR technique has a huge time delay. In particular, the delay of the APR model with a large number of parameters is more serious. To address the issue, we aim to apply the non-autoregressive (NAR) method to the APR task, which can output target code in a parallel manner to avoid huge repair delays. However, the naive use of the NAR manner for the APR task suffers from the issue of compromised patch quality. To effectively adapt the NAR manner for the APR task, we in this paper propose NARRepair, the first customized NAR code generation model for the APR task. The NARRepair model features three major novelties, including 1) the repair action predictor for alleviating the over-correction issue, 2) the inter-token dependency extractor for alleviating the issue of lacking inter-token dependency information, and 3) the two-stage decoder for alleviating the issue of lacking contextual information. We evaluated NARRepair on three widely used datasets in the APR community, and the results show that 1) compared to other APR techniques, the NARRepair model has the best performance within the limited repair time, and 2) compared to AR-based APR techniques, the repair speed of NARRepair has been increased by 1.4-6.4 times in the GPU environment. Overall, the results show that NARRepair has achieved state-of-the-art comprehensive performance in terms of repair speed and accuracy.
- Abstract(参考訳): 近年,機械学習技術を用いた自動プログラム修復(APR)の研究が盛んに行われている。
従来の機械学習ベースのAPR技術は、過去の値に基づいて将来の値を予測する自動回帰(AR)方式でバグを基本的に修正した。
トークン・バイ・トークン生成の方法により、ARベースのAPR技術は大幅に遅延する。
特に、多数のパラメータを持つAPRモデルの遅延はより深刻である。
この問題に対処するため,APRタスクに非自己回帰(NAR)手法を適用することを目的としている。
しかし、APRタスクにおけるNAR方式の素直な使用は、妥協されたパッチ品質の問題に悩まされている。
本稿では,APRタスクにNAR方式を効果的に適用するために,最初のカスタマイズされたNAARコード生成モデルであるNARRepairを提案する。
NARRepair モデルは3つの主要なノベルティを特徴としている。
1 過補正問題を緩和するための修理行動予測装置
2【相互依存情報不足の問題を緩和するための相互依存抽出装置】
3)文脈情報の欠如の問題を軽減するための2段階デコーダ。
NARRepairをAPRコミュニティで広く利用されている3つのデータセットで評価し,その結果を得た。
1) 他のAPR技術と比較して、NARRepairモデルは修理時間内で最高の性能を示し、
2) ARベースのAPR技術と比較して、NARRepairの修理速度はGPU環境で1.4-6.4倍に向上した。
その結果,NARRepairは修復速度と精度の面で,最先端の総合的な性能を達成していることがわかった。
関連論文リスト
- The Art of Repair: Optimizing Iterative Program Repair with Instruction-Tuned Models [48.073219761367184]
複数出力の生成と複数ラウンドの反復のバランスをとるAPRパイプラインについて検討する。
3つのサイズ(1K, 30K, 65K)と2つのテクニック(フルファインチューニングとLoRA)を持つAPRデータセット上で各モデルを微調整する。
その結果,微調整データセットのごく一部(1%)しか使用せず,最大78%の改善が達成できた。
論文 参考訳(メタデータ) (2025-05-05T18:06:51Z) - NARRepair: Non-Autoregressive Code Generation Model for Automatic Program Repair [8.77021401961262]
Non-Autoregressive(NAR)メソッドは、巨大な推論遅延を避けるために、並列にターゲットコードを出力することができる。
APRタスクのための最初のカスタマイズされたNAARコード生成モデルであるNARRepairを提案する。
NARRepair は,1) 補修動作を用いて過補正問題を緩和し,2) AST から依存情報を抽出して単語間の依存情報の欠如を緩和し,3) 文脈情報の欠如を緩和するために2段階の復号を用いる,という3つの大きな特徴を特徴としている。
論文 参考訳(メタデータ) (2024-06-24T11:04:28Z) - Distilling Autoregressive Models to Obtain High-Performance
Non-Autoregressive Solvers for Vehicle Routing Problems with Faster Inference
Speed [8.184624214651283]
本稿では,低推論遅延を有する高性能NARモデルを得るための汎用的非自己回帰的知識蒸留法(GNARKD)を提案する。
我々は、GNARKDを広く採用されている3つのARモデルに適用して、合成および実世界の両方のインスタンスに対して、NAR VRPソルバを得る。
論文 参考訳(メタデータ) (2023-12-19T07:13:32Z) - Improving Automated Program Repair with Domain Adaptation [0.0]
自動プログラム修復(APR)は、ソースコードのバグ/欠陥を修正するプロセスとして、自動化ツールによって定義される。
APRツールは最近、最先端のニューラルネットワーク処理(NLP)技術を活用することで、有望な結果を経験している。
論文 参考訳(メタデータ) (2022-12-21T23:52:09Z) - Less Training, More Repairing Please: Revisiting Automated Program Repair via Zero-shot Learning [13.632199062382746]
近年のCodeBERTモデルに基づく実用的な多言語APRツールとしてAlphaRepairを提案する。
広く使われているDefects4Jベンチマークの結果から、AlphaRepairは最先端のAPRツールを大幅に上回っていることが分かる。
論文 参考訳(メタデータ) (2022-07-17T20:24:52Z) - Paraformer: Fast and Accurate Parallel Transformer for
Non-autoregressive End-to-End Speech Recognition [62.83832841523525]
そこで我々はParaformerと呼ばれる高速かつ高精度な並列トランスを提案する。
出力トークンの数を正確に予測し、隠れた変数を抽出する。
10倍以上のスピードアップで、最先端のARトランスフォーマーに匹敵するパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2022-06-16T17:24:14Z) - A Comparative Study on Non-Autoregressive Modelings for Speech-to-Text
Generation [59.64193903397301]
非自己回帰モデル (NAR) はシーケンス内の複数の出力を同時に生成し、自動回帰ベースラインと比較して精度低下のコストで推論速度を著しく低減する。
エンドツーエンド自動音声認識(ASR)のための様々なNARモデリング手法の比較研究を行う。
各種課題の成果は, 精度・速度トレードオフや長文発話に対する頑健性など, NAR ASR の理解を深める上で興味深い結果をもたらす。
論文 参考訳(メタデータ) (2021-10-11T13:05:06Z) - FastCorrect: Fast Error Correction with Edit Alignment for Automatic
Speech Recognition [90.34177266618143]
編集アライメントに基づく新しいNAR誤り訂正モデルであるFastCorrectを提案する。
fastcorrectは推論を6-9倍高速化し、自己回帰補正モデルと比較して精度を8-14%向上させる。
ニューラルマシン翻訳で採用されている一般的なNARモデルの精度を、大きなマージンで上回っています。
論文 参考訳(メタデータ) (2021-05-09T05:35:36Z) - FastLR: Non-Autoregressive Lipreading Model with Integrate-and-Fire [74.04394069262108]
我々は,全てのターゲットトークンを同時に生成する非自己回帰(NAR)リップリーダーモデルであるFastLRを提案する。
FastLRは最先端のリップリーダーモデルと比較して10.97$times$のスピードアップを実現している。
論文 参考訳(メタデータ) (2020-08-06T08:28:56Z) - A Study of Non-autoregressive Model for Sequence Generation [147.89525760170923]
非自己回帰(NAR)モデルは、シーケンスのすべてのトークンを並列に生成する。
本稿では,ARモデルとNARモデルのギャップを埋めるために,知識蒸留とソースターゲットアライメントを提案する。
論文 参考訳(メタデータ) (2020-04-22T09:16:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。