論文の概要: State-Of-The-Practice in Quality Assurance in Java-Based Open Source
Software Development
- arxiv url: http://arxiv.org/abs/2306.09665v1
- Date: Fri, 16 Jun 2023 07:43:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 19:37:26.078071
- Title: State-Of-The-Practice in Quality Assurance in Java-Based Open Source
Software Development
- Title(参考訳): javaベースのオープンソースソフトウェア開発における品質保証の現状
- Authors: Ali Khatami, Andy Zaidman
- Abstract要約: 我々は、GitHub上の1,454の人気のあるオープンソースプロジェクトの開発において、品質保証アプローチが併用されているかどうかを調査する。
我々の研究は、一般的にプロジェクトは高強度で全ての品質保証プラクティスに従わないことを示唆している。
一般的に、我々の研究は、Javaベースのオープンソースソフトウェア開発において、既存の品質保証アプローチがどのように使われているか、より深く理解しています。
- 参考スコア(独自算出の注目度): 3.4800665691198565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To ensure the quality of software systems, software engineers can make use of
a variety of quality assurance approaches, such as software testing, modern
code review, automated static analysis, and build automation. Each of these
quality assurance practices has been studied in depth in isolation, but there
is a clear knowledge gap when it comes to our understanding of how these
approaches are being used in conjunction or not. In our study, we broadly
investigate whether and how these quality assurance approaches are being used
in conjunction in the development of 1,454 popular open source software
projects on GitHub. Our study indicates that typically projects do not follow
all quality assurance practices together with high intensity. In fact, we only
observe weak correlation among some quality assurance practices. In general,
our study provides a deeper understanding of how existing quality assurance
approaches are currently being used in Java-based open source software
development. Besides, we specifically zoomed in on the more mature projects in
our dataset, and generally, we observe that more mature projects are more
intense in their application of the quality assurance practices, with more
focus on their ASAT usage and code reviewing, but no strong change in their CI
usage.
- Abstract(参考訳): ソフトウェアシステムの品質を保証するため、ソフトウェアエンジニアは、ソフトウェアテスト、現代的なコードレビュー、自動静的分析、ビルド自動化など、さまざまな品質保証アプローチを利用することができる。
これらの品質保証のプラクティスは、それぞれ独立して深く研究されているが、これらのアプローチが協調して使われているかどうかを理解する上で、明確な知識ギャップがある。
本研究では,GitHub上の1,454の人気のあるオープンソースプロジェクトの開発において,これらの品質保証アプローチが併用されているかどうかを幅広く検討する。
我々の研究は、一般的にプロジェクトは高強度で全ての品質保証プラクティスに従わないことを示唆している。
実際、品質保証の実践の間には弱い相関しか観察できない。
一般的に、本研究では、現在javaベースのオープンソースソフトウェア開発で使われている品質保証アプローチについてより深く理解しています。
さらに、私たちはデータセット内のより成熟したプロジェクトにも目を向けました。一般的に、より成熟したプロジェクトは品質保証プラクティスの適用においてより強固であり、asatの使用とコードレビューに重点を置いていますが、ci利用には大きな変化はありません。
関連論文リスト
- How to Measure Performance in Agile Software Development? A Mixed-Method Study [2.477589198476322]
この研究は、アジャイルソフトウェア開発のパフォーマンス指標を実際に使用するときに生じる課題を特定することを目的としている。
結果として、広く使用されているパフォーマンスメトリクスが実際に広く使用されている一方で、アジャイルソフトウェア開発チームは透明性と標準化の欠如と不十分な正確性のために、課題に直面しています。
論文 参考訳(メタデータ) (2024-07-08T19:53:01Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - Leveraging Large Language Models for Efficient Failure Analysis in Game Development [47.618236610219554]
本稿では,テストの失敗の原因となるコードの変更を自動的に識別する手法を提案する。
このメソッドは、LLM(Large Language Models)を利用して、エラーメッセージと対応するコード変更を関連付ける。
当社のアプローチは新たに作成したデータセットで71%の精度に達しています。
論文 参考訳(メタデータ) (2024-06-11T09:21:50Z) - A Roadmap for Software Testing in Open Collaborative Development Environments [14.113209837391183]
オープンコラボレーティブ開発という分散した性質は、多様なコントリビュータと迅速なイテレーションとともに、ソフトウェア品質を保証するための新たな課題を提示します。
本稿では,オープンな共同開発環境におけるソフトウェア品質保証の最近の進歩に関する総合的なレビューと分析を行う。
論文 参考訳(メタデータ) (2024-06-08T10:50:24Z) - Automatic Programming: Large Language Models and Beyond [48.34544922560503]
我々は,プログラマの責任に関するコード品質,セキュリティ,関連する問題について検討する。
ソフトウェア工学の進歩が自動プログラミングを実現する方法について論じる。
我々は、近い将来のプログラミング環境に焦点をあてて、先見的な視点で締めくくります。
論文 参考訳(メタデータ) (2024-05-03T16:19:24Z) - Code Ownership in Open-Source AI Software Security [18.779538756226298]
コードオーナシップのメトリクスを使用して、5つの著名なオープンソースAIソフトウェアプロジェクトにおける潜在的な脆弱性との相関を調査します。
この結果は、ハイレベルなオーナシップ(マイナーなコントリビュータの数が限られている)と脆弱性の減少との間に肯定的な関係があることを示唆している。
これらの新しいコードオーナシップメトリクスによって、プロジェクトキュレーターや品質保証の専門家が現場プロジェクトを評価し、ベンチマークするのを助けるために、Pythonベースのコマンドラインアプリケーションを実装しました。
論文 参考訳(メタデータ) (2023-12-18T00:37:29Z) - Generative Artificial Intelligence for Software Engineering -- A
Research Agenda [8.685607624226037]
我々は、GenAI for Software Engineeringの研究アジェンダを開発するために、文献レビューと5ヶ月間のフォーカスグループを実施しました。
この結果から,GenAIを部分的自動化に適用し,すべてのソフトウェア開発活動における意思決定を支援することが可能であることが示唆された。
GenAIを実装する際の一般的な考慮事項は、業界レベルの評価、信頼性と正確性、データアクセシビリティ、透明性、技術に関連する持続可能性といった点である。
論文 参考訳(メタデータ) (2023-10-28T09:14:39Z) - Using Machine Learning To Identify Software Weaknesses From Software
Requirement Specifications [49.1574468325115]
本研究は、要求仕様からソフトウェア弱点を特定するための効率的な機械学習アルゴリズムを見つけることに焦点を当てる。
ProMISE_exp. Naive Bayes、サポートベクターマシン(SVM)、決定木、ニューラルネットワーク、畳み込みニューラルネットワーク(CNN)アルゴリズムをテストした。
論文 参考訳(メタデータ) (2023-08-10T13:19:10Z) - Uncertainty Quantification 360: A Holistic Toolkit for Quantifying and
Communicating the Uncertainty of AI [49.64037266892634]
我々は、AIモデルの不確実性定量化のためのオープンソースのPythonツールキットUncertainty Quantification 360 (UQ360)について述べる。
このツールキットの目標は2つある: ひとつは、AIアプリケーション開発ライフサイクルにおける不確実性を定量化し、評価し、改善し、伝達する共通のプラクティスを育むとともに、合理化するための幅広い能力を提供すること、もうひとつは、信頼できるAIの他の柱とのUQの接続をさらに探求することである。
論文 参考訳(メタデータ) (2021-06-02T18:29:04Z) - Quality Management of Machine Learning Systems [0.0]
機械学習(ML)技術の大きな進歩により、人工知能(AI)は私たちの日常生活の一部になっています。
ビジネス/ミッションクリティカルなシステムでは、AIアプリケーションの信頼性と保守性に関する深刻な懸念が残っている。
本稿では,MLアプリケーションのための総合的な品質管理フレームワークの展望について述べる。
論文 参考訳(メタデータ) (2020-06-16T21:34:44Z) - Machine Learning for Software Engineering: A Systematic Mapping [73.30245214374027]
ソフトウェア開発業界は、現代のソフトウェアシステムを高度にインテリジェントで自己学習システムに移行するために、機械学習を急速に採用している。
ソフトウェアエンジニアリングライフサイクルの段階にわたって機械学習の採用について、現状を探求する包括的な研究は存在しない。
本研究は,機械学習によるソフトウェア工学(MLSE)分類を,ソフトウェア工学ライフサイクルのさまざまな段階に適用性に応じて,最先端の機械学習技術に分類するものである。
論文 参考訳(メタデータ) (2020-05-27T11:56:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。