論文の概要: What Do Contribution Guidelines Say About Software Testing?
- arxiv url: http://arxiv.org/abs/2602.02966v1
- Date: Tue, 03 Feb 2026 01:05:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.16893
- Title: What Do Contribution Guidelines Say About Software Testing?
- Title(参考訳): ソフトウェアテストに関するコントリビューションガイドラインは何か?
- Authors: Bruna Falcucci, Felipe Gomide, Andre Hora,
- Abstract要約: 我々は200のPythonおよびJavaScriptオープンソースプロジェクトのガイドラインを分析した。
プロジェクトの78%には、コントリビュータのためのある種のテストドキュメンテーションが含まれています。
テストドキュメンテーションは一般的にテストの実行方法を説明するが、テストの記述方法に関するガイダンスは提供されないことが多い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Software testing plays a crucial role in the contribution process of open-source projects. For example, contributions introducing new features are expected to include tests, and contributions with tests are more likely to be accepted. Although most real-world projects require contributors to write tests, the specific testing practices communicated to contributors remain unclear. In this paper, we present an empirical study to understand better how software testing is approached in contribution guidelines. We analyze the guidelines of 200 Python and JavaScript open-source software projects. We find that 78\% of the projects include some form of test documentation for contributors. Test documentation is located in multiple sources, including \texttt{CONTRIBUTING} files (58\%), external documentation (24\%), and \texttt{README} files (8\%). Furthermore, test documentation commonly explains how to run tests (83.5\%), but less often provides guidance on how to write tests (37\%). It frequently covers unit tests (71\%), but rarely addresses integration (20.5\%) and end-to-end tests (15.5\%). Other key testing aspects are also less frequently discussed: test coverage (25.5\%) and mocking (9.5\%). We conclude by discussing implications and future research.
- Abstract(参考訳): ソフトウェアテストは、オープンソースプロジェクトのコントリビューションプロセスにおいて重要な役割を果たす。
例えば、新機能導入へのコントリビューションにはテストが含まれることが期待されており、テストへのコントリビューションが受け入れられる可能性が高い。
ほとんどの実世界のプロジェクトでは、コントリビュータがテストを書く必要があるが、コントリビュータに伝えられる特定のテストプラクティスは明確ではない。
本稿では,コントリビューションガイドラインにおけるソフトウェアテストのアプローチをよりよく理解するための実証的研究について述べる。
我々は200のPythonおよびJavaScriptオープンソースプロジェクトのガイドラインを分析した。
プロジェクトの78\%には、コントリビュータのためのある種のテストドキュメンテーションが含まれています。
テストドキュメンテーションは、複数のソースに配置されており、その中には、 \textt{CONTRIBUTING} ファイル (58 %)、外部ドキュメンテーション (24 %)、 \textt{README} ファイル (8 %) が含まれる。
さらに、テストドキュメンテーションは一般的にテストの実行方法(83.5\%)を説明しているが、テストの記述方法(37\%)に関するガイダンスは少ない。
単体テスト (71 %) を頻繁にカバーするが、統合 (20.5 %) とエンドツーエンドテスト (15.5 %) にはほとんど対応しない。
テストカバレッジ (25.5\%) とモック (9.5\%) も議論されている。
我々はその意味と今後の研究について論じる。
関連論文リスト
- Intention-Driven Generation of Project-Specific Test Cases [45.2380093475221]
検証意図の記述からプロジェクト固有のテストを生成するIntentionTestを提案する。
13のオープンソースプロジェクトから4,146件のテストケースで,最先端のベースライン(DA, ChatTester, EvoSuite)に対してIntentionTestを広範囲に評価した。
論文 参考訳(メタデータ) (2025-07-28T08:35:04Z) - CLOVER: A Test Case Generation Benchmark with Coverage, Long-Context, and Verification [71.34070740261072]
本稿では,テストケースの生成と完成におけるモデルの能力を評価するためのベンチマークCLOVERを提案する。
ベンチマークはタスク間でのコード実行のためにコンテナ化されています。
論文 参考訳(メタデータ) (2025-02-12T21:42:56Z) - ProjectTest: A Project-level LLM Unit Test Generation Benchmark and Impact of Error Fixing Mechanisms [48.43237545197775]
単体テスト生成はLLMの有望かつ重要なユースケースとなっている。
ProjectTestは、Python、Java、JavaScriptをカバーするユニットテスト生成のためのプロジェクトレベルのベンチマークである。
論文 参考訳(メタデータ) (2025-02-10T15:24:30Z) - Observation-based unit test generation at Meta [52.4716552057909]
TestGenは、アプリケーション実行中に観察された複雑なオブジェクトのシリアライズされた観察から作られたユニットテストを自動的に生成する。
TestGenは518のテストを本番環境に投入し、継続的統合で9,617,349回実行され、5,702の障害が見つかった。
評価の結果,信頼性の高い4,361のエンドツーエンドテストから,少なくとも86%のクラスでテストを生成することができた。
論文 参考訳(メタデータ) (2024-02-09T00:34:39Z) - TestSpark: IntelliJ IDEA's Ultimate Test Generation Companion [15.13443954421825]
本稿では,IntelliJ IDEA用のプラグインであるTestSparkを紹介する。
TestSparkは、生成された各テストを容易に修正して実行し、それらをプロジェクトワークフローに統合することを可能にする。
論文 参考訳(メタデータ) (2024-01-12T13:53:57Z) - Learning Deep Semantics for Test Completion [46.842174440120196]
テスト完了の新たなタスクを形式化し、テスト対象の文のコンテキストとコードに基づいて、テストメソッドで次のステートメントを自動的に完了する。
テスト補完にコードセマンティクスを用いたディープラーニングモデルであるTeCoを開発した。
論文 参考訳(メタデータ) (2023-02-20T18:53:56Z) - An Empirical Evaluation of Using Large Language Models for Automated
Unit Test Generation [3.9762912548964864]
本稿では,自動単体テスト生成における大規模言語モデルの有効性について,大規模な実証評価を行った。
これはJavaScript用のテスト生成ツールで、npmパッケージ内のすべてのAPI関数のユニットテストを自動的に生成します。
TestPilotの生成されたテストの92.8%は、既存のテストと50%以上の類似性を持っていない。
論文 参考訳(メタデータ) (2023-02-13T17:13:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。