論文の概要: A Tool for Generating Exceptional Behavior Tests With Large Language Models
- arxiv url: http://arxiv.org/abs/2505.22818v1
- Date: Wed, 28 May 2025 19:53:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.511263
- Title: A Tool for Generating Exceptional Behavior Tests With Large Language Models
- Title(参考訳): 大規模言語モデルを用いた例外行動テスト生成ツール
- Authors: Linghan Zhong, Samuel Yuan, Jiyang Zhang, Yu Liu, Pengyu Nie, Junyi Jessy Li, Milos Gligoric,
- Abstract要約: 異常行動テスト(EBT)を自動的に生成するフレームワークであるexLongについて述べる。
ExLongには、例外スロートレース、スローステートメントを保護する条件式、同様のトレースを実行する例外的動作テストに関する推論が含まれている。
デモビデオは、exLongが開発者のプロジェクトのための総合的なETT作成を効果的に支援する方法を示しています。
- 参考スコア(独自算出の注目度): 36.97613436193272
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Exceptional behavior tests (EBTs) are crucial in software development for verifying that code correctly handles unwanted events and throws appropriate exceptions. However, prior research has shown that developers often prioritize testing "happy paths", e.g., paths without unwanted events over exceptional scenarios. We present exLong, a framework that automatically generates EBTs to address this gap. exLong leverages a large language model (LLM) fine-tuned from CodeLlama and incorporates reasoning about exception-throwing traces, conditional expressions that guard throw statements, and non-exceptional behavior tests that execute similar traces. Our demonstration video illustrates how exLong can effectively assist developers in creating comprehensive EBTs for their project (available at https://youtu.be/Jro8kMgplZk).
- Abstract(参考訳): 例外行動テスト(EBT)は、コードが望ましくないイベントを正しく処理し、適切な例外を投げることを検証するために、ソフトウェア開発において不可欠である。
しかし、以前の調査では、開発者はしばしば例外的なシナリオよりも"ハッピーパス"、例えば望ましくないイベントのないパスのテストを優先していることが示されている。
このギャップに対処するために,EBTを自動生成するフレームワークであるexLongを提案する。
exLongは、CodeLlamaから微調整された大きな言語モデル(LLM)を活用し、例外をスローするトレース、スローステートメントをガードする条件式、同様のトレースを実行する非例外的動作テストに関する推論を取り入れている。
私たちのデモビデオは、exLongが開発者のプロジェクト向けの包括的なEBT作成を効果的に支援する方法を示しています(https://youtu.be/Jro8kMgplZk.com/)。
関連論文リスト
- Revisit Self-Debugging with Self-Generated Tests for Code Generation [18.643472696246686]
自己生成テストによる自己改善は、有望なソリューションだが、その限界と現実的な可能性を十分に探求することができない。
プロセスにはポストエグゼクティブとインエグゼクティブ自己老化という2つのパラダイムを提案する。
実行後の自己老化は基本的な問題に苦しむが、自己生成テストによって生じるバイアスのため、競合する問題の改善の可能性を示す。
論文 参考訳(メタデータ) (2025-01-22T10:54:19Z) - Seeker: Towards Exception Safety Code Generation with Intermediate Language Agents Framework [58.36391985790157]
現実世界のソフトウェア開発では、不適切な例外処理がコードの堅牢性と信頼性に重大な影響を与えます。
コードにおける例外処理を改善するために,大規模言語モデル (LLM) の利用について検討する。
例外処理のエキスパート開発者戦略に触発されたマルチエージェントフレームワークであるSeekerを提案する。
論文 参考訳(メタデータ) (2024-12-16T12:35:29Z) - exLong: Generating Exceptional Behavior Tests with Large Language Models [41.145231237535356]
ExLongは、例外的な振る舞いテストを自動的に生成するフレームワークである。
これは、スローステートメントにつながるトレース、スローステートメントを保護する条件式、例外的でない振る舞いテストに関する推論を埋め込んでいる。
我々はexLongをテスト生成のための最先端モデル(CAT-LM)と最強基礎モデル(GPT-4o)の1つと比較する。
論文 参考訳(メタデータ) (2024-05-23T14:28:41Z) - Automatic Generation of Test Cases based on Bug Reports: a Feasibility
Study with Large Language Models [4.318319522015101]
既存のアプローチは、単純なテスト(例えば単体テスト)や正確な仕様を必要とするテストケースを生成する。
ほとんどのテスト手順は、テストスイートを形成するために人間が書いたテストケースに依存しています。
大規模言語モデル(LLM)を活用し,バグレポートを入力として利用することにより,この生成の実現可能性を検討する。
論文 参考訳(メタデータ) (2023-10-10T05:30:12Z) - Teaching Large Language Models to Self-Debug [62.424077000154945]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
本稿では,大規模言語モデルで予測プログラムを数発のデモでデバッグする自己デバッグを提案する。
論文 参考訳(メタデータ) (2023-04-11T10:43:43Z) - Fault-Aware Neural Code Rankers [64.41888054066861]
サンプルプログラムの正しさを予測できる故障認識型ニューラルネットワークローダを提案する。
我々のフォールト・アウェア・ローダは、様々なコード生成モデルのpass@1精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-06-04T22:01:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。