論文の概要: Prompting Is All You Need: Automated Android Bug Replay with Large
Language Models
- arxiv url: http://arxiv.org/abs/2306.01987v2
- Date: Tue, 18 Jul 2023 06:20:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 04:34:07.033220
- Title: Prompting Is All You Need: Automated Android Bug Replay with Large
Language Models
- Title(参考訳): プロンプティングは必要なもの:大型言語モデルでAndroidのバグを自動再生する
- Authors: Sidong Feng, Chunyang Chen
- Abstract要約: 本稿では,バグ報告から迅速なエンジニアリングを通じてバグを自動的に再現する,新しい軽量なアプローチであるAdbGPTを提案する。
AdbGPTは、LLMから人間の知識と論理的推論を引き出すために、少数ショットの学習と連鎖推論を活用する。
この評価は,253.6秒で81.3%のバグレポートを再現するAdbGPTの有効性と有効性を示すものである。
- 参考スコア(独自算出の注目度): 33.90141431412983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bug reports are vital for software maintenance that allow users to inform
developers of the problems encountered while using the software. As such,
researchers have committed considerable resources toward automating bug replay
to expedite the process of software maintenance. Nonetheless, the success of
current automated approaches is largely dictated by the characteristics and
quality of bug reports, as they are constrained by the limitations of
manually-crafted patterns and pre-defined vocabulary lists. Inspired by the
success of Large Language Models (LLMs) in natural language understanding, we
propose AdbGPT, a new lightweight approach to automatically reproduce the bugs
from bug reports through prompt engineering, without any training and
hard-coding effort. AdbGPT leverages few-shot learning and chain-of-thought
reasoning to elicit human knowledge and logical reasoning from LLMs to
accomplish the bug replay in a manner similar to a developer. Our evaluations
demonstrate the effectiveness and efficiency of our AdbGPT to reproduce 81.3%
of bug reports in 253.6 seconds, outperforming the state-of-the-art baselines
and ablation studies. We also conduct a small-scale user study to confirm the
usefulness of AdbGPT in enhancing developers' bug replay capabilities.
- Abstract(参考訳): バグレポートはソフトウェアのメンテナンスに不可欠であり、ユーザーはソフトウェアの使用中に遭遇した問題を開発者に知らせることができる。
このように、研究者はソフトウェアメンテナンスのプロセスを迅速化するためにバグリプレイの自動化にかなりのリソースを割いている。
しかしながら、現在の自動化アプローチの成功は、手作業によるパターンや事前に定義された語彙リストの制限によって制約されるため、バグレポートの特性と品質によって大きく左右される。
自然言語理解における大規模言語モデル(llms)の成功に触発されて,我々は,プロンプトエンジニアリングを通じてバグレポートからバグを自動的に再現する新しい軽量アプローチであるadbgptを提案する。
AdbGPTは、人間の知識と論理的推論をLLMから引き合いに出して、開発者と同じような方法でバグリプレイを達成している。
評価の結果,AdbGPTが253.6秒で81.3%のバグ報告を再現し,最先端のベースラインとアブレーション研究を上回った。
また,AdbGPTのバグリプレイ機能向上における有用性を確認するため,小規模なユーザスタディも実施している。
関連論文リスト
- Feedback-Driven Automated Whole Bug Report Reproduction for Android Apps [23.460238111094608]
ReBLは、Androidのバグレポートを再現するための、フィードバック駆動のアプローチである。
従来のステップバイステップのエンティティマッチングアプローチよりも柔軟でコンテキスト対応です。
非クラッシュな機能的なバグレポートを処理できる。
論文 参考訳(メタデータ) (2024-07-06T19:58:03Z) - Leveraging Large Language Models for Efficient Failure Analysis in Game Development [47.618236610219554]
本稿では,テストの失敗の原因となるコードの変更を自動的に識別する手法を提案する。
このメソッドは、LLM(Large Language Models)を利用して、エラーメッセージと対応するコード変更を関連付ける。
当社のアプローチは新たに作成したデータセットで71%の精度に達しています。
論文 参考訳(メタデータ) (2024-06-11T09:21:50Z) - A Novel Approach for Automatic Program Repair using Round-Trip
Translation with Large Language Models [50.86686630756207]
研究によると、ある文の文法的誤りは、それを他の言語に翻訳し、その語を返せば修正できる。
現在の自動プログラム修復(APR)生成モデルは、ソースコードで事前訓練され、修正のために微調整されている。
本稿では,あるプログラミング言語から別のプログラミング言語,あるいは自然言語へのコード変換,そして,その逆といった,微調整ステップをバイパスし,ラウンド・トリップ変換(RTT)を用いる手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T22:36:31Z) - DebugBench: Evaluating Debugging Capability of Large Language Models [80.73121177868357]
DebugBench - LLM(Large Language Models)のベンチマーク。
C++、Java、Pythonの4つの主要なバグカテゴリと18のマイナータイプをカバーする。
ゼロショットシナリオで2つの商用および4つのオープンソースモデルを評価する。
論文 参考訳(メタデータ) (2024-01-09T15:46:38Z) - Can LLMs Demystify Bug Reports? [0.6650227510403052]
ChatGPTは報告されたバグの50%を解読し、再現することができた。
報告されたバグの半数に自動的に対処できることは、バグに対処するために機械学習を適用することで、バグを報告できるのは人力のみである、という有望な可能性を示している。
論文 参考訳(メタデータ) (2023-10-10T05:07:00Z) - Too Few Bug Reports? Exploring Data Augmentation for Improved
Changeset-based Bug Localization [7.884766610628946]
本稿では,バグレポートの異なる構成要素に作用する新しいデータ拡張演算子を提案する。
また、拡張バグレポートのコーパス作成を目的としたデータバランス戦略についても述べる。
論文 参考訳(メタデータ) (2023-05-25T19:06:01Z) - Teaching Large Language Models to Self-Debug [62.424077000154945]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
本稿では,大規模言語モデルで予測プログラムを数発のデモでデバッグする自己デバッグを提案する。
論文 参考訳(メタデータ) (2023-04-11T10:43:43Z) - Auto-labelling of Bug Report using Natural Language Processing [0.0]
ルールとクエリベースのソリューションは、明確なランキングのない、潜在的な類似バグレポートの長いリストを推奨します。
本論文では,NLP手法の組み合わせによる解を提案する。
カスタムデータトランスフォーマー、ディープニューラルネットワーク、および非汎用機械学習メソッドを使用して、既存の同一バグレポートを検索する。
論文 参考訳(メタデータ) (2022-12-13T02:32:42Z) - Using Developer Discussions to Guide Fixing Bugs in Software [51.00904399653609]
我々は,タスク実行前に利用可能であり,また自然発生しているバグレポートの議論を,開発者による追加情報の必要性を回避して利用することを提案する。
このような議論から派生したさまざまな自然言語コンテキストがバグ修正に役立ち、オラクルのバグ修正コミットに対応するコミットメッセージの使用よりもパフォーマンスの向上につながることを実証する。
論文 参考訳(メタデータ) (2022-11-11T16:37:33Z) - Large Language Models are Few-shot Testers: Exploring LLM-based General
Bug Reproduction [14.444294152595429]
問題によりオープンソースリポジトリに追加されたテストの数は、対応するプロジェクトテストスイートサイズの約28%であった。
本稿では,Large Language Models (LLMs) を用いたLIBROを提案する。
LIBROの評価は、広く研究されているDefects4Jベンチマークにおいて、全ての研究ケースの33%で障害再現テストケースを生成することができることを示している。
論文 参考訳(メタデータ) (2022-09-23T10:50:47Z) - BigIssue: A Realistic Bug Localization Benchmark [89.8240118116093]
BigIssueは、現実的なバグローカライゼーションのためのベンチマークである。
実際のJavaバグと合成Javaバグの多様性を備えた一般的なベンチマークを提供する。
われわれは,バグローカライゼーションの最先端技術として,APRの性能向上と,現代の開発サイクルへの適用性の向上を期待している。
論文 参考訳(メタデータ) (2022-07-21T20:17:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。