論文の概要: DiffTester: Accelerating Unit Test Generation for Diffusion LLMs via Repetitive Pattern
- arxiv url: http://arxiv.org/abs/2509.24975v1
- Date: Mon, 29 Sep 2025 16:04:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.115676
- Title: DiffTester: Accelerating Unit Test Generation for Diffusion LLMs via Repetitive Pattern
- Title(参考訳): DiffTester: 反復パターンによる拡散LDMのためのユニットテスト生成の高速化
- Authors: Lekang Yang, Yuetong Liu, Yitong Zhang, Jia Li,
- Abstract要約: DiffTesterは、単体テスト生成(UTG)におけるdLLMに適したアクセラレーションフレームワークである。
DiffTesterは、出力の品質を損なうことなく、各ステップで生成されるトークンの数を適応的に増加させる。
最初はPythonに限られていたTestEvalベンチマークを拡張し、JavaやC++などの追加のプログラミング言語を導入しました。
- 参考スコア(独自算出の注目度): 6.901203999358967
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Software development relies heavily on extensive unit testing, which makes the efficiency of automated Unit Test Generation (UTG) particularly important. However, most existing LLMs generate test cases one token at a time in each forward pass, which leads to inefficient UTG. Recently, diffusion LLMs (dLLMs) have emerged, offering promising parallel generation capabilities and showing strong potential for efficient UTG. Despite this advantage, their application to UTG is still constrained by a clear trade-off between efficiency and test quality, since increasing the number of tokens generated in each step often causes a sharp decline in the quality of test cases. To overcome this limitation, we present DiffTester, an acceleration framework specifically tailored for dLLMs in UTG. The key idea of DiffTester is that unit tests targeting the same focal method often share repetitive structural patterns. By dynamically identifying these common patterns through abstract syntax tree analysis during generation, DiffTester adaptively increases the number of tokens produced at each step without compromising the quality of the output. To enable comprehensive evaluation, we extend the original TestEval benchmark, which was limited to Python, by introducing additional programming languages including Java and C++. Extensive experiments on three benchmarks with two representative models show that DiffTester delivers significant acceleration while preserving test coverage. Moreover, DiffTester generalizes well across different dLLMs and programming languages, providing a practical and scalable solution for efficient UTG in software development. Code and data are publicly available at https://github.com/wellbeingyang/DLM4UTG-open .
- Abstract(参考訳): ソフトウェア開発は大規模な単体テストに大きく依存しているため、自動単体テスト生成(UTG)の効率性は特に重要である。
しかし、既存のほとんどのLCMは、各前方通過で1回に1つのトークンを発生させ、非効率なUTGをもたらす。
近年、拡散LDM(dLLMs)が出現し、有望な並列生成機能を提供し、効率的なUTGの可能性を示している。
このような利点にもかかわらず、UTGへの適用は、効率性とテスト品質の明確なトレードオフによって制限されている。
この制限を克服するために、UTGのdLLM用に特別に調整されたアクセラレーションフレームワークであるDiffTesterを紹介する。
DiffTesterのキーとなる考え方は、同じフォーカスメソッドをターゲットにした単体テストは、しばしば反復的な構造パターンを共有することである。
生成中の抽象構文木解析を通じてこれらの共通パターンを動的に識別することにより、DiffTesterは、出力の品質を損なうことなく、各ステップで生成されるトークンの数を適応的に増加させる。
包括的な評価を可能にするため、JavaやC++を含む追加のプログラミング言語を導入することで、Pythonに制限された最初のTestEvalベンチマークを拡張しました。
2つの代表的なモデルを持つ3つのベンチマークに関する大規模な実験は、DiffTesterがテストカバレッジを保ちながら大きな加速を提供することを示している。
さらに、DiffTesterは様々なdLLMやプログラミング言語にまたがってうまく一般化し、ソフトウェア開発において効率的なUTGのための実用的でスケーラブルなソリューションを提供する。
コードとデータはhttps://github.com/wellbeingyang/DLM4UTG-openで公開されている。
関連論文リスト
- DetectAnyLLM: Towards Generalizable and Robust Detection of Machine-Generated Text Across Domains and Models [60.713908578319256]
タスク指向の知識で検出器を最適化するために,DDL(Direct Discrepancy Learning)を提案する。
そこで本研究では,最新のMGTD性能を実現する統合検出フレームワークであるTectAnyLLMを紹介する。
MIRAGEは5つのテキストドメインにまたがる10のコーパスから人書きテキストをサンプリングし、17個の最先端のLLMを使用して再生成または修正する。
論文 参考訳(メタデータ) (2025-09-15T10:59:57Z) - Use Property-Based Testing to Bridge LLM Code Generation and Validation [38.25155484701058]
大きな言語モデル(LLM)はコード生成において優れていますが、その出力が機能的に正しいことを保証することは、永続的な課題です。
本稿では,Property-Generated Solverを紹介した。Property-Based Testing (PBT)を活用して,高レベルのプログラム特性を検証する新しいフレームワークである。
プロパティ生成ソルバーには、コード生成と反復リファインメント専用のジェネレータと、PBTライフサイクルを管理するテスタという、2つの共同LLMベースのエージェントが使用されている。
論文 参考訳(メタデータ) (2025-06-23T06:01:12Z) - Learning to Solve and Verify: A Self-Play Framework for Code and Test Generation [69.62857948698436]
大規模言語モデル(LLM)の最近の進歩は、コーディングベンチマークのパフォーマンスを改善している。
しかし、手軽に利用できる高品質なデータの枯渇により、改善は停滞している。
本稿では,単一モデルのコードとテスト生成能力を共同で改善するセルフプレイ・ソルバ検証フレームワークであるSol-Verを提案する。
論文 参考訳(メタデータ) (2025-02-20T18:32:19Z) - Learning to Generate Unit Tests for Automated Debugging [52.63217175637201]
ユニットテスト(UT)は、コードの正確性を評価するだけでなく、大きな言語モデル(LLM)にフィードバックを提供する上でも重要な役割を果たします。
提案するUTGenは,LLMに対して,予測出力とともにエラーを示す単体テスト入力を生成することを教える。
UTGen は他の LLM ベースラインを7.59% 上回っていることを示す。
論文 参考訳(メタデータ) (2025-02-03T18:51:43Z) - ASTER: Natural and Multi-language Unit Test Generation with LLMs [6.259245181881262]
静的解析を組み込んだジェネリックパイプラインを記述し,コンパイル可能な高カバレッジテストケースの生成においてLCMをガイドする。
コードカバレッジとテスト自然性の観点から,生成したテストの品質を評価するための実証的研究を行った。
論文 参考訳(メタデータ) (2024-09-04T21:46:18Z) - LLM-Powered Test Case Generation for Detecting Bugs in Plausible Programs [37.48856389469826]
TrickCatcherは、可算プログラムでバグを発見するためのテストケースを生成する。
TrickCatcherは1.80x、2.65x、1.66xのリコール、精度、F1スコアを達成する。
論文 参考訳(メタデータ) (2024-04-16T06:20:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。