論文の概要: pytest-inline: An Inline Testing Tool for Python
- arxiv url: http://arxiv.org/abs/2305.13486v1
- Date: Mon, 22 May 2023 20:58:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 08:03:13.032200
- Title: pytest-inline: An Inline Testing Tool for Python
- Title(参考訳): pytest-inline: Pythonのインラインテストツール
- Authors: Yu Liu, Zachary Thurston, Alan Han, Pengyu Nie, Milos Gligoric,
Owolabi Legunsen
- Abstract要約: pytest-inlineはPythonテストフレームワークpytestのプラグインである。
pytest-inlineは各インラインテストを実行し、ターゲットステートメントの出力が期待する出力と一致しない場合はフェールする。
pytest-inlineはpytest-devの組織に統合される。
- 参考スコア(独自算出の注目度): 10.307253336106053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present pytest-inline, the first inline testing framework for Python. We
recently proposed inline tests to make it easier to test individual program
statements. But, there is no framework-level support for developers to write
inline tests in Python. To fill this gap, we design and implement pytest-inline
as a plugin for pytest, the most popular Python testing framework. Using
pytest-inline, a developer can write an inline test by assigning test inputs to
variables in a target statement and specifying the expected test output. Then,
pytest-inline runs each inline test and fails if the target statement's output
does not match the expected output. In this paper, we describe our design of
pytest-inline, the testing features that it provides, and the intended use
cases. Our evaluation on inline tests that we wrote for 80 target statements
from 31 open-source Python projects shows that using pytest-inline incurs
negligible overhead, at 0.012x. pytest-inline is integrated into the pytest-dev
organization, and a video demo is at
https://www.youtube.com/watch?v=pZgiAxR_uJg.
- Abstract(参考訳): Pythonの最初のインラインテストフレームワークであるpytest-inlineを紹介します。
我々は最近,個別のプログラム文のテストを容易にするインラインテストを提案した。
しかし、pythonでインラインテストを書くためのフレームワークレベルでのサポートはない。
このギャップを埋めるために、最も人気のあるPythonテストフレームワークであるpytestのプラグインとしてpytest-inlineを設計、実装しました。
pytest-inlineを使用して、開発者は、ターゲットステートメント内の変数にテスト入力を割り当て、期待されるテスト出力を指定することで、インラインテストを書くことができる。
次に、pytest-inlineは各インラインテストを実行し、ターゲットステートメントの出力が期待された出力と一致しない場合に失敗する。
本稿では, pytest-inlineの設計, 提供するテスト機能, 意図したユースケースについて述べる。
31のオープンソースPythonプロジェクトから80のターゲットステートメントで記述したインラインテストの評価では、pytest-inlineの使用は0.012倍という無視可能なオーバーヘッドを発生させる。
pytest-inlineはpytest-devの組織に統合され、ビデオデモはhttps://www.youtube.com/watch?
v=pZgiAxR_uJg。
関連論文リスト
- pyMethods2Test: A Dataset of Python Tests Mapped to Focal Methods [0.21485350418225244]
Pythonは急速に成長しているプログラミング言語の1つで、現在多くのリストでトップ言語にランクインしている。
LLMを効果的にトレーニングして、Pythonコードの優れた単体テストケースを生成することは必須である。
これにより、トレーニングとテストデータを提供するための大規模なデータセットの必要性がもたらされる。
論文 参考訳(メタデータ) (2025-02-07T18:19:12Z) - Detecting and Evaluating Order-Dependent Flaky Tests in JavaScript [3.6513675781808357]
不安定なテストは、ソフトウェアテストに重大な問題を引き起こす。
これまでの研究では、テストオーダー依存性がフレキネスの最も一般的な原因の1つとして特定されている。
本稿では,JavaScriptテストにおけるテスト順序依存性について検討する。
論文 参考訳(メタデータ) (2025-01-22T06:52:11Z) - PyPulse: A Python Library for Biosignal Imputation [58.35269251730328]
PyPulseは,臨床およびウェアラブルの両方のセンサ設定において生体信号の計算を行うPythonパッケージである。
PyPulseのフレームワークは、非機械学習バイオリサーバーを含む幅広いユーザーベースに対して、使い勝手の良いモジュラーで拡張可能なフレームワークを提供する。
PyPulseはMITライセンスでGithubとPyPIでリリースしました。
論文 参考訳(メタデータ) (2024-12-09T11:00:55Z) - Do Test and Environmental Complexity Increase Flakiness? An Empirical Study of SAP HANA [47.29324864511411]
不安定なテストはコードの変更なしにランダムに失敗する。
テストの特徴と,テストのフレキネスに影響を与える可能性のあるテスト環境について検討する。
論文 参考訳(メタデータ) (2024-09-16T07:52:09Z) - Observation-based unit test generation at Meta [52.4716552057909]
TestGenは、アプリケーション実行中に観察された複雑なオブジェクトのシリアライズされた観察から作られたユニットテストを自動的に生成する。
TestGenは518のテストを本番環境に投入し、継続的統合で9,617,349回実行され、5,702の障害が見つかった。
評価の結果,信頼性の高い4,361のエンドツーエンドテストから,少なくとも86%のクラスでテストを生成することができた。
論文 参考訳(メタデータ) (2024-02-09T00:34:39Z) - TestSpark: IntelliJ IDEA's Ultimate Test Generation Companion [15.13443954421825]
本稿では,IntelliJ IDEA用のプラグインであるTestSparkを紹介する。
TestSparkは、生成された各テストを容易に修正して実行し、それらをプロジェクトワークフローに統合することを可能にする。
論文 参考訳(メタデータ) (2024-01-12T13:53:57Z) - Do Automatic Test Generation Tools Generate Flaky Tests? [12.813573907094074]
テスト生成ツールが生成するフレキなテストの頻度と性質はほとんど不明である。
EvoSuite(Java)とPynguin(Python)を使ってテストを生成し、各テストは200回実行します。
この結果から, フレキネスは開発者の手書きテストと同様, 生成テストでも一般的であることが判明した。
論文 参考訳(メタデータ) (2023-10-08T16:44:27Z) - A Practical Toolkit for Multilingual Question and Answer Generation [79.31199020420827]
我々は,マルチ言語QAGのオンラインサービスであるAutoQGと,モデル微調整,生成,評価のためのオールインワンPythonパッケージであるlmqgを紹介した。
また、事前訓練されたエンコーダ-デコーダ言語モデルのいくつかの変種を微調整した8言語でQAGモデルをリリースしています。
論文 参考訳(メタデータ) (2023-05-27T08:42:37Z) - Learning Deep Semantics for Test Completion [46.842174440120196]
テスト完了の新たなタスクを形式化し、テスト対象の文のコンテキストとコードに基づいて、テストメソッドで次のステートメントを自動的に完了する。
テスト補完にコードセマンティクスを用いたディープラーニングモデルであるTeCoを開発した。
論文 参考訳(メタデータ) (2023-02-20T18:53:56Z) - PyGOD: A Python Library for Graph Outlier Detection [56.33769221859135]
PyGODは、グラフデータの外れ値を検出するオープンソースライブラリである。
外れ値検出のための主要なグラフベースのメソッドを幅広くサポートしています。
PyGODはBSD 2-Clauseライセンスの下でhttps://pygod.orgとPython Package Index (PyPI)でリリースされている。
論文 参考訳(メタデータ) (2022-04-26T06:15:21Z) - Automated Support for Unit Test Generation: A Tutorial Book Chapter [21.716667622896193]
単体テストは、システムの他の部分と独立してテストできる最小のコードセグメントをテストする段階である。
単体テストは通常実行可能なコードとして書かれ、Pythonのpytestのような単体テストフレームワークが提供する形式で書かれる。
本章では,検索に基づく単体テスト生成の概念を紹介する。
論文 参考訳(メタデータ) (2021-10-26T11:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。