論文の概要: Generating Accurate Assert Statements for Unit Test Cases using
Pretrained Transformers
- arxiv url: http://arxiv.org/abs/2009.05634v1
- Date: Fri, 11 Sep 2020 19:35:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 22:09:38.055993
- Title: Generating Accurate Assert Statements for Unit Test Cases using
Pretrained Transformers
- Title(参考訳): 予習変圧器を用いたユニットテストケースの正確なアサート文の生成
- Authors: Michele Tufano, Dawn Drain, Alexey Svyatkovskiy, Neel Sundaresan
- Abstract要約: 単体テストは、ソフトウェアテストピラミッドの基礎となる基礎である。
正確で有用なアサーション文を生成することによって、開発者が単体テストケースを書くのを支援するアプローチを提案する。
- 参考スコア(独自算出の注目度): 10.846226514357866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unit testing represents the foundational basis of the software testing
pyramid, beneath integration and end-to-end testing. Automated software testing
researchers have proposed a variety of techniques to assist developers in this
time-consuming task. In this paper we present an approach to support developers
in writing unit test cases by generating accurate and useful assert statements.
Our approach is based on a state-of-the-art transformer model initially
pretrained on an English textual corpus. This semantically rich model is then
trained in a semi-supervised fashion on a large corpus of source code. Finally,
we finetune this model on the task of generating assert statements for unit
tests. The resulting model is able to generate accurate assert statements for a
given method under test. In our empirical evaluation, the model was able to
predict the exact assert statements written by developers in 62% of the cases
in the first attempt. The results show 80% relative improvement for top-1
accuracy over the previous RNN-based approach in the literature. We also show
the substantial impact of the pretraining process on the performances of our
model, as well as comparing it with assert auto-completion task. Finally, we
demonstrate how our approach can be used to augment EvoSuite test cases, with
additional asserts leading to improved test coverage.
- Abstract(参考訳): 単体テストは、統合とエンドツーエンドのテストの下にある、ソフトウェアテストピラミッドの基礎である。
自動ソフトウェアテストの研究者は、この時間を要するタスクで開発者を支援する様々なテクニックを提案している。
本稿では,正確なアサート文を生成することによって,ユニットテストケース作成を支援する手法を提案する。
本手法は英文コーパスで事前学習した最先端トランスフォーマーモデルに基づいている。
この意味豊かなモデルは、ソースコードの大きなコーパスで半教師付きで訓練される。
最後に、このモデルをユニットテスト用のassertステートメントを生成するタスクに微調整します。
得られたモデルは、テスト中の所定のメソッドに対して正確なアサートステートメントを生成することができる。
実験的な評価では、最初の試みで62%のケースで開発者が記述した正確なアサーションを予測できた。
その結果,従来のRNN手法と比較して,トップ1の精度が80%向上した。
また,プリトレーニングプロセスがモデルの性能に与える影響や,アサート自動補完タスクとの比較も示しています。
最後に、テストカバレッジ向上につながるアサーションを追加して、私たちのアプローチがevosuiteテストケースの強化にどのように役立つかを示します。
関連論文リスト
- AsserT5: Test Assertion Generation Using a Fine-Tuned Code Language Model [8.995812770349602]
トレーニング済みのCodeT5モデルに基づく新しいモデルであるAsserT5を提案する。
焦点推定手法の抽象化と包含は、微調整された事前学習モデルにも有用であることがわかった。
論文 参考訳(メタデータ) (2025-02-04T20:42:22Z) - Context-Aware Testing: A New Paradigm for Model Testing with Large Language Models [49.06068319380296]
我々は,コンテキストを帰納バイアスとして用いて意味のあるモデル障害を探索するコンテキスト認識テスト(CAT)を導入する。
最初のCATシステムSMART Testingをインスタンス化し、大きな言語モデルを用いて、関連性があり、起こりうる失敗を仮説化します。
論文 参考訳(メタデータ) (2024-10-31T15:06:16Z) - Chat-like Asserts Prediction with the Support of Large Language Model [34.140962210930624]
我々は,Pythonプロジェクトで有意義なアサート文を生成するために,Chatライクな実行ベースのアサート予測(tool)を導入する。
ツールはペルソナ、Chain-of-Thought、ワンショットの学習技術を利用して、迅速な設計を行い、LLMやPythonインタプリタと通信する。
評価の結果, 単一アサーション文生成では64.7%, 全体アサーション文生成では62%の精度が得られた。
論文 参考訳(メタデータ) (2024-07-31T08:27:03Z) - Revisiting and Improving Retrieval-Augmented Deep Assertion Generation [13.373681113601982]
単体テストはソフトウェア開発プロセスにおいて重要な活動となっている。
Yuらは単体テストのためのアサーションを生成する統合的なアプローチ(略して積分)を提案した。
有望であるにもかかわらず、なぜ統合が機能するのか、それとも機能しないのかについては、いまだに知識のギャップがあります。
論文 参考訳(メタデータ) (2023-09-19T02:39:02Z) - SAGA: Summarization-Guided Assert Statement Generation [34.51502565985728]
本稿では,アサート文の自動生成のための新しい要約誘導手法を提案する。
我々は、事前訓練された言語モデルを参照アーキテクチャとして利用し、アサート文生成のタスクでそれを微調整する。
論文 参考訳(メタデータ) (2023-05-24T07:03:21Z) - Teaching Large Language Models to Self-Debug [62.424077000154945]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
本稿では,大規模言語モデルで予測プログラムを数発のデモでデバッグする自己デバッグを提案する。
論文 参考訳(メタデータ) (2023-04-11T10:43:43Z) - Listen, Adapt, Better WER: Source-free Single-utterance Test-time
Adaptation for Automatic Speech Recognition [65.84978547406753]
Test-time Adaptationは、ソースドメインでトレーニングされたモデルに適応して、テストサンプルの予測を改善することを目的としている。
単一発話テスト時間適応 (SUTA) は音声領域における最初のTTA研究である。
論文 参考訳(メタデータ) (2022-03-27T06:38:39Z) - MEMO: Test Time Robustness via Adaptation and Augmentation [131.28104376280197]
テスト時間ロバスト化の問題、すなわちモデルロバスト性を改善するためにテストインプットを用いて検討する。
最近の先行研究ではテスト時間適応法が提案されているが、それぞれ追加の仮定を導入している。
モデルが確率的で適応可能な任意のテスト環境で使用できるシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:55:11Z) - The MultiBERTs: BERT Reproductions for Robustness Analysis [86.29162676103385]
事前トレーニングの再実行は、パフォーマンスに関して、かなり異なる結論をもたらす可能性がある。
我々は25個のBERTベースのチェックポイントの集合であるMultiBERTを紹介する。
目標は、研究者が事前訓練の手順について、堅牢で統計的に正当化された結論を描けるようにすることである。
論文 参考訳(メタデータ) (2021-06-30T15:56:44Z) - ReAssert: Deep Learning for Assert Generation [3.8174671362014956]
本稿では、JUnitテストアサーションの自動生成のためのアプローチであるRE-ASSERTを提案する。
これは、学習に正確なコード・トゥ・テストのトレーサビリティを使用して、プロジェクトを個別にターゲットすることで達成される。
我々はまた、最先端のディープラーニングモデルであるReformerと、ReAssertと既存のアプローチであるATLASを評価するための以前の2つのモデルも利用しています。
論文 参考訳(メタデータ) (2020-11-19T11:55:59Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。