論文の概要: pytest-inline: An Inline Testing Tool for Python
- arxiv url: http://arxiv.org/abs/2305.13486v1
- Date: Mon, 22 May 2023 20:58:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 08:03:13.032200
- Title: pytest-inline: An Inline Testing Tool for Python
- Title(参考訳): pytest-inline: Pythonのインラインテストツール
- Authors: Yu Liu, Zachary Thurston, Alan Han, Pengyu Nie, Milos Gligoric,
Owolabi Legunsen
- Abstract要約: pytest-inlineはPythonテストフレームワークpytestのプラグインである。
pytest-inlineは各インラインテストを実行し、ターゲットステートメントの出力が期待する出力と一致しない場合はフェールする。
pytest-inlineはpytest-devの組織に統合される。
- 参考スコア(独自算出の注目度): 10.307253336106053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present pytest-inline, the first inline testing framework for Python. We
recently proposed inline tests to make it easier to test individual program
statements. But, there is no framework-level support for developers to write
inline tests in Python. To fill this gap, we design and implement pytest-inline
as a plugin for pytest, the most popular Python testing framework. Using
pytest-inline, a developer can write an inline test by assigning test inputs to
variables in a target statement and specifying the expected test output. Then,
pytest-inline runs each inline test and fails if the target statement's output
does not match the expected output. In this paper, we describe our design of
pytest-inline, the testing features that it provides, and the intended use
cases. Our evaluation on inline tests that we wrote for 80 target statements
from 31 open-source Python projects shows that using pytest-inline incurs
negligible overhead, at 0.012x. pytest-inline is integrated into the pytest-dev
organization, and a video demo is at
https://www.youtube.com/watch?v=pZgiAxR_uJg.
- Abstract(参考訳): Pythonの最初のインラインテストフレームワークであるpytest-inlineを紹介します。
我々は最近,個別のプログラム文のテストを容易にするインラインテストを提案した。
しかし、pythonでインラインテストを書くためのフレームワークレベルでのサポートはない。
このギャップを埋めるために、最も人気のあるPythonテストフレームワークであるpytestのプラグインとしてpytest-inlineを設計、実装しました。
pytest-inlineを使用して、開発者は、ターゲットステートメント内の変数にテスト入力を割り当て、期待されるテスト出力を指定することで、インラインテストを書くことができる。
次に、pytest-inlineは各インラインテストを実行し、ターゲットステートメントの出力が期待された出力と一致しない場合に失敗する。
本稿では, pytest-inlineの設計, 提供するテスト機能, 意図したユースケースについて述べる。
31のオープンソースPythonプロジェクトから80のターゲットステートメントで記述したインラインテストの評価では、pytest-inlineの使用は0.012倍という無視可能なオーバーヘッドを発生させる。
pytest-inlineはpytest-devの組織に統合され、ビデオデモはhttps://www.youtube.com/watch?
v=pZgiAxR_uJg。
関連論文リスト
- Do Test and Environmental Complexity Increase Flakiness? An Empirical Study of SAP HANA [47.29324864511411]
不安定なテストはコードの変更なしにランダムに失敗する。
テストの特徴と,テストのフレキネスに影響を与える可能性のあるテスト環境について検討する。
論文 参考訳(メタデータ) (2024-09-16T07:52:09Z) - Observation-based unit test generation at Meta [52.4716552057909]
TestGenは、アプリケーション実行中に観察された複雑なオブジェクトのシリアライズされた観察から作られたユニットテストを自動的に生成する。
TestGenは518のテストを本番環境に投入し、継続的統合で9,617,349回実行され、5,702の障害が見つかった。
評価の結果,信頼性の高い4,361のエンドツーエンドテストから,少なくとも86%のクラスでテストを生成することができた。
論文 参考訳(メタデータ) (2024-02-09T00:34:39Z) - PyTester: Deep Reinforcement Learning for Text-to-Testcase Generation [20.441921569948562]
テスト駆動開発(TDD)は、実際のコードを書く前に要件に基づいてテストケースを書くことを義務付ける。
テストケースを書くことはTDDの中心ですが、時間がかかり、コストがかかり、開発者が悩まされることも少なくありません。
PyTesterは、テキストからテストケースを生成するアプローチで、正しい、実行可能な、完全な、効果的なテストケースを自動的に生成します。
論文 参考訳(メタデータ) (2024-01-15T10:21:58Z) - TestSpark: IntelliJ IDEA's Ultimate Test Generation Companion [15.13443954421825]
本稿では,IntelliJ IDEA用のプラグインであるTestSparkを紹介する。
TestSparkは、生成された各テストを容易に修正して実行し、それらをプロジェクトワークフローに統合することを可能にする。
論文 参考訳(メタデータ) (2024-01-12T13:53:57Z) - Do Automatic Test Generation Tools Generate Flaky Tests? [12.813573907094074]
テスト生成ツールが生成するフレキなテストの頻度と性質はほとんど不明である。
EvoSuite(Java)とPynguin(Python)を使ってテストを生成し、各テストは200回実行します。
この結果から, フレキネスは開発者の手書きテストと同様, 生成テストでも一般的であることが判明した。
論文 参考訳(メタデータ) (2023-10-08T16:44:27Z) - A Practical Toolkit for Multilingual Question and Answer Generation [79.31199020420827]
我々は,マルチ言語QAGのオンラインサービスであるAutoQGと,モデル微調整,生成,評価のためのオールインワンPythonパッケージであるlmqgを紹介した。
また、事前訓練されたエンコーダ-デコーダ言語モデルのいくつかの変種を微調整した8言語でQAGモデルをリリースしています。
論文 参考訳(メタデータ) (2023-05-27T08:42:37Z) - FlaPy: Mining Flaky Python Tests at Scale [14.609208863749831]
FlaPyは、研究者がテストスイートを再実行することによって、与えられた、あるいは自動的にサンプルされたPythonプロジェクトの集合で、不安定なテストをマイニングするためのフレームワークである。
FlaPyはコンテナ化と新しい実行環境を使用してテスト実行を分離し、実際のCI条件をシミュレートする。
FlaPyはSLURMを使ってテスト実行の並列化をサポートしており、数千のプロジェクトをスキャンしてテストのフレキネスをスキャンすることができる。
論文 参考訳(メタデータ) (2023-05-08T15:48:57Z) - Learning Deep Semantics for Test Completion [46.842174440120196]
テスト完了の新たなタスクを形式化し、テスト対象の文のコンテキストとコードに基づいて、テストメソッドで次のステートメントを自動的に完了する。
テスト補完にコードセマンティクスを用いたディープラーニングモデルであるTeCoを開発した。
論文 参考訳(メタデータ) (2023-02-20T18:53:56Z) - BiasTestGPT: Using ChatGPT for Social Bias Testing of Language Models [73.29106813131818]
テスト文は限られた手動テンプレートから生成されるか、高価なクラウドソーシングを必要とするため、現時点ではバイアステストは煩雑である。
ソーシャルグループと属性の任意のユーザ指定の組み合わせを考慮し、テスト文の制御可能な生成にChatGPTを使うことを提案する。
本稿では,HuggingFace上にホストされているオープンソースの総合的バイアステストフレームワーク(BiasTestGPT)について紹介する。
論文 参考訳(メタデータ) (2023-02-14T22:07:57Z) - PyGOD: A Python Library for Graph Outlier Detection [56.33769221859135]
PyGODは、グラフデータの外れ値を検出するオープンソースライブラリである。
外れ値検出のための主要なグラフベースのメソッドを幅広くサポートしています。
PyGODはBSD 2-Clauseライセンスの下でhttps://pygod.orgとPython Package Index (PyPI)でリリースされている。
論文 参考訳(メタデータ) (2022-04-26T06:15:21Z) - Automated Support for Unit Test Generation: A Tutorial Book Chapter [21.716667622896193]
単体テストは、システムの他の部分と独立してテストできる最小のコードセグメントをテストする段階である。
単体テストは通常実行可能なコードとして書かれ、Pythonのpytestのような単体テストフレームワークが提供する形式で書かれる。
本章では,検索に基づく単体テスト生成の概念を紹介する。
論文 参考訳(メタデータ) (2021-10-26T11:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。