論文の概要: APPT: Boosting Automated Patch Correctness Prediction via Fine-tuning
Pre-trained Models
- arxiv url: http://arxiv.org/abs/2301.12453v2
- Date: Tue, 16 Jan 2024 03:41:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 03:22:19.664122
- Title: APPT: Boosting Automated Patch Correctness Prediction via Fine-tuning
Pre-trained Models
- Title(参考訳): APPT:微調整事前学習モデルによる自動パッチ精度予測の高速化
- Authors: Quanjun Zhang, Chunrong Fang, Weisong Sun, Yan Liu, Tieke He, Xiaodong
Hao, Zhenyu Chen
- Abstract要約: 本稿では,事前学習と微調整によるモデルベース自動パッチ正当性評価手法であるAPPTを提案する。
我々は1,183個のDefects4Jパッチの実験を行い、APPTが予測精度79.7%、リコール率83.2%を達成したことを示す実験結果を得た。
- 参考スコア(独自算出の注目度): 15.179895484968476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated program repair (APR) aims to fix software bugs automatically
without human debugging efforts and plays a crucial role in software
development and maintenance. Despite promising, APR is still challenged by a
long-standing overfitting problem (i.e., the generated patch is plausible but
overfitting). Various techniques have thus been proposed to address the
overfitting problem. Recently, researchers have employed BERT to extract code
features, which are then used to train a classifier for patch correctness
prediction. However, BERT is restricted to feature extraction for classifier
training without benefiting from the training process, potentially generating
sub-optimal vector representations for patched code snippets. In this paper, we
propose APPT, a pre-trained model-based automated patch correctness assessment
technique by both pre-training and fine-tuning. APPT adopts a pre-trained model
as the encoder stack, followed by an LSTM stack and a deep learning classifier.
More importantly, the pre-trained model is fine-tuned in conjunction with other
components as a whole pipeline to fully adapt it specifically for reasoning
about patch correctness. We conduct an extensive experiment on 1,183 Defects4J
patches and the experimental results show that APPT achieves prediction
accuracy of 79.7% and recall of 83.2%, outperforming CACHE by 4.3% and 6.7%.
Our additional investigation on 49,694 real-world patches shows that APPT
achieves the optimum performance compared with existing representation learning
techniques. We further investigate the impact of each component and find that
they all positively contribute to APPT, e.g., the fine-tuning process and the
LSTM stack increase F1-score by 10.22% and 4.11%, respectively. We also prove
that adopting advanced pre-trained models can further provide substantial
advancement, highlighting the generalizability of APPT.
- Abstract(参考訳): 自動プログラム修復(APR)は、人間のデバッグ作業なしにソフトウェアバグを自動修正することを目的としており、ソフトウェア開発とメンテナンスにおいて重要な役割を果たす。
有望であるにもかかわらず、APRは長年のオーバーフィッティング問題(つまり、生成されたパッチは信頼性が高いがオーバーフィッティングである)に悩まされている。
このため、オーバーフィッティング問題に対処する様々な手法が提案されている。
最近、研究者はBERTを使ってコードの特徴を抽出し、パッチの正確性予測のために分類器を訓練している。
しかしBERTは、トレーニングプロセスの恩恵を受けずに、分類器トレーニングのための機能抽出に制限されており、パッチされたコードスニペットに対して、潜在的に最適なベクトル表現を生成する。
本稿では,事前学習と微調整によるモデルベース自動パッチ正当性評価手法であるAPPTを提案する。
APPTはエンコーダスタックとして事前学習モデルを採用し、LSTMスタックとディープラーニング分類器が続く。
さらに重要なのは、事前トレーニングされたモデルは、パイプライン全体として他のコンポーネントと連携して微調整され、パッチの正確性に関する推論に特化しています。
我々は1,183個のDefects4Jパッチについて広範な実験を行い、APPTが予測精度79.7%、リコール83.2%を達成し、CACHEの4.3%と6.7%を上回った。
実世界のパッチ49,694点についてさらに調査した結果,apptは既存の表現学習技術と比較して最適性能を達成していることがわかった。
さらに,各コンポーネントがapptに与える影響についても検討し,それぞれ10.22%,4.11%,微調整プロセスやlstmスタックがそれぞれf1-scoreを増加させた。
また,高度な事前学習モデルを採用することで,apptの一般化性がさらに向上することが証明された。
関連論文リスト
- Hybrid Automated Program Repair by Combining Large Language Models and Program Analysis [12.7034916462208]
自動プログラム修復(APR)は、人間の開発者のバグ修正プロセスを合理化する可能性から、大きな注目を集めている。
本稿ではGIANTREPAIRと呼ばれる革新的なAPR手法を紹介する。
この知見に基づいて、GIANTREPAIRはまず、LLM生成したパッチからパッチスケルトンを構築して、パッチ空間を閉じ込め、その後、特定のプログラムに適した高品質なパッチを生成する。
論文 参考訳(メタデータ) (2024-06-03T05:05:12Z) - Revisiting the Power of Prompt for Visual Tuning [50.11465784194896]
本研究では,プロンプトとパッチトークンの相互関係について検討した。
プロンプトトークンはパッチトークンと高い相互情報を共有する傾向にあるという観測から着想を得て,下流トークンのプロトタイプを用いた初期化プロンプトを提案する。
本手法は, 自己指導型プレトレーニングの適応性を著しく向上させ, 少なくとも10%から30%のタスク性能向上を実現した。
論文 参考訳(メタデータ) (2024-02-04T07:49:02Z) - Sparse is Enough in Fine-tuning Pre-trained Large Language Models [98.46493578509039]
我々はSparse Increment Fine-Tuning (SIFT) という勾配に基づくスパース微調整アルゴリズムを提案する。
GLUE Benchmark や Instruction-tuning などのタスクで有効性を検証する。
論文 参考訳(メタデータ) (2023-12-19T06:06:30Z) - Approximated Prompt Tuning for Vision-Language Pre-trained Models [54.326232586461614]
視覚言語による事前学習モデルでは、事前学習タスクと下流タスクのギャップを埋めるために、しばしば多くの学習可能なトークンを必要とする。
本稿では,効率的なVL転送学習を実現するために,APT(Approximated Prompt Tuning)アプローチを提案する。
論文 参考訳(メタデータ) (2023-06-27T05:43:47Z) - An Empirical Analysis of Parameter-Efficient Methods for Debiasing
Pre-Trained Language Models [55.14405248920852]
各種言語モデルとバイアスタイプを用いたプレフィックスチューニング,プロンプトチューニング,アダプタチューニングによる実験を行い,その性能評価を行った。
パラメータ効率のよい手法は、適応調整が常に最も効果的であるジェンダーバイアスを軽減するのに有効であることがわかった。
また、早急なチューニングは、BERTよりもGPT-2に適しており、人種的・宗教的偏見に関しては、人種的・宗教的偏見が低いことが判明した。
論文 参考訳(メタデータ) (2023-06-06T23:56:18Z) - PatchZero: Zero-Shot Automatic Patch Correctness Assessment [13.19425284402493]
コードに大規模言語モデルを適用することにより,パッチの正当性評価を行うツールネームを提案する。
ツールネームは、新しいAPRツールによって生成されたものとセマンティックな類似性を示す既存のAPRツールからラベル付きパッチを優先する。
実験の結果,ツールネームの精度は84.4%,F1スコアは86.5%であった。
論文 参考訳(メタデータ) (2023-03-01T03:12:11Z) - Invalidator: Automated Patch Correctness Assessment via Semantic and
Syntactic Reasoning [6.269370220586248]
本稿では,意味論的および統語論的推論により,APR生成パッチの正当性を自動的に評価する手法を提案する。
我々は、Defects4Jの現実世界のプログラムで生成された885パッチのデータセットについて実験を行った。
実験の結果,INVALIDATORは79%のオーバーフィッティングパッチを正しく分類し,最高のベースラインで検出されたパッチを23%上回った。
論文 参考訳(メタデータ) (2023-01-03T14:16:32Z) - Improving Automated Program Repair with Domain Adaptation [0.0]
自動プログラム修復(APR)は、ソースコードのバグ/欠陥を修正するプロセスとして、自動化ツールによって定義される。
APRツールは最近、最先端のニューラルネットワーク処理(NLP)技術を活用することで、有望な結果を経験している。
論文 参考訳(メタデータ) (2022-12-21T23:52:09Z) - Test-Time Prompt Tuning for Zero-Shot Generalization in Vision-Language
Models [107.05966685291067]
テスト時間プロンプトチューニング (TPT) を提案し, 適応的なプロンプトを1つのテストサンプルで学習する。
TPTはCLIPのゼロショットトップ1の精度を平均3.6%改善する。
クロスデータセットの一般化を目に見えないカテゴリで評価する際、PTは追加のトレーニングデータを使用する最先端のアプローチと同等に機能する。
論文 参考訳(メタデータ) (2022-09-15T17:55:11Z) - Sample-Efficient Optimisation with Probabilistic Transformer Surrogates [66.98962321504085]
本稿では,ベイズ最適化における最先端確率変換器の適用可能性について検討する。
トレーニング手順と損失定義から生じる2つの欠点を観察し、ブラックボックス最適化のプロキシとして直接デプロイすることを妨げる。
1)非一様分散点を前処理するBO調整トレーニング,2)予測性能を向上させるために最適な定常点をフィルタする新しい近似後正則整定器トレードオフ精度と入力感度を導入する。
論文 参考訳(メタデータ) (2022-05-27T11:13:17Z) - Checking Patch Behaviour against Test Specification [4.723400023753107]
パッチ動作とテスト仕様のフェールとの関連性について仮説を提案する。
次に、パッチの正当性を予測するための教師なし学習ベースシステムBATSを提案する。
論文 参考訳(メタデータ) (2021-07-28T11:39:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。