論文の概要: Applying Machine Learning Analysis for Software Quality Test
- arxiv url: http://arxiv.org/abs/2305.09695v1
- Date: Tue, 16 May 2023 06:10:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 18:59:51.422798
- Title: Applying Machine Learning Analysis for Software Quality Test
- Title(参考訳): ソフトウェア品質テストに機械学習分析を適用する
- Authors: Al Khan, Remudin Reshid Mekuria, Ruslan Isaev
- Abstract要約: メンテナンスのトリガーと予測されるかどうかを理解することは重要です。
生成したプログラムの複雑さを評価する多くの手法は有用な予測モデルを生成する。
本稿では,機械学習を利用可能なデータに適用し,累積ソフトウェア故障レベルを算出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the biggest expense in software development is the maintenance.
Therefore, it is critical to comprehend what triggers maintenance and if it may
be predicted. Numerous research have demonstrated that specific methods of
assessing the complexity of created programs may produce useful prediction
models to ascertain the possibility of maintenance due to software failures. As
a routine it is performed prior to the release, and setting up the models
frequently calls for certain, object-oriented software measurements. It is not
always the case that software developers have access to these measurements. In
this paper, the machine learning is applied on the available data to calculate
the cumulative software failure levels. A technique to forecast a software`s
residual defectiveness using machine learning can be looked into as a solution
to the challenge of predicting residual flaws. Software metrics and defect data
were separated out of the static source code repository. Static code is used to
create software metrics, and reported bugs in the repository are used to gather
defect information. By using a correlation method, metrics that had no
connection to the defect data were removed. This makes it possible to analyze
all the data without pausing the programming process. Large, sophisticated
software`s primary issue is that it is impossible to control everything
manually, and the cost of an error can be quite expensive. Developers may miss
errors during testing as a consequence, which will raise maintenance costs.
Finding a method to accurately forecast software defects is the overall
objective.
- Abstract(参考訳): ソフトウェア開発における最大のコストの1つは、メンテナンスです。
したがって、メンテナンスのトリガと、それが予測されるかどうかを理解することが重要である。
多くの研究が、作成プログラムの複雑さを評価する特定の方法が、ソフトウェア障害によるメンテナンスの可能性を確認するのに有用な予測モデルを生み出すことを実証している。
ルーチンとして、それはリリース前に実行され、モデルの設定は、しばしば特定のオブジェクト指向ソフトウェア測定を要求する。
必ずしも、ソフトウェア開発者がこれらの測定値にアクセスできるとは限らない。
本稿では,機械学習を利用可能なデータに適用し,累積ソフトウェア故障レベルを算出する。
機械学習を用いたソフトウェアの残差欠陥を予測する手法は、残差欠陥を予測するという課題の解決策として考察することができる。
ソフトウェアメトリクスと欠陥データは、静的ソースコードリポジトリから分離された。
静的コードはソフトウェアメトリクスの作成に使用され、リポジトリの報告されたバグは欠陥情報収集に使用される。
相関法を用いることで、欠陥データと無関係なメトリクスを取り除いた。
これにより、プログラミングプロセスを一時停止することなく、すべてのデータを分析できる。
大規模で高度なソフトウェアの主な問題は、すべてを手動で制御することは不可能であり、エラーのコストは非常に高くつくということです。
その結果、開発者はテスト中にエラーを見逃す可能性があるため、メンテナンスコストが上昇する。
ソフトウェアの欠陥を正確に予測する方法を見つけることが全体的な目的である。
関連論文リスト
- Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - Size biased Multinomial Modelling of detection data in Software testing [1.7532822703595772]
バグサイズや最終的なバグサイズを利用して、ソフトウェアの信頼性をより正確に判断する上で役立ちます。
このモデルはシミュレーションによって検証され、その後、重要な宇宙アプリケーションテストデータに使用される。
論文 参考訳(メタデータ) (2024-05-24T17:57:34Z) - NExT: Teaching Large Language Models to Reason about Code Execution [50.93581376646064]
大規模言語モデル(LLM)のコードは通常、プログラムの表面テキスト形式に基づいて訓練される。
NExTは,プログラムの実行トレースを検査し,実行時の動作を判断する手法である。
論文 参考訳(メタデータ) (2024-04-23T01:46:32Z) - Demonstration of a Response Time Based Remaining Useful Life (RUL)
Prediction for Software Systems [0.966840768820136]
Prognostic and Health Management (PHM) は、エレクトロニクス分野や非エレクトロニクス分野のハードウェアシステムに広く応用されている。
本稿では,故障予測とRUL推定のためのソフトウェアシステムへのPHMの概念の適用について述べる。
論文 参考訳(メタデータ) (2023-07-23T06:06:38Z) - Fault-Aware Neural Code Rankers [64.41888054066861]
サンプルプログラムの正しさを予測できる故障認識型ニューラルネットワークローダを提案する。
我々のフォールト・アウェア・ローダは、様々なコード生成モデルのpass@1精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-06-04T22:01:05Z) - SUPERNOVA: Automating Test Selection and Defect Prevention in AAA Video
Games Using Risk Based Testing and Machine Learning [62.997667081978825]
従来の手法では、成長するソフトウェアシステムではスケールできないため、ビデオゲームのテストはますます難しいタスクになります。
自動化ハブとして機能しながら,テスト選択と欠陥防止を行うシステム SUPERNOVA を提案する。
この直接的な影響は、未公表のスポーツゲームタイトルの55%以上のテスト時間を減らすことが観察されている。
論文 参考訳(メタデータ) (2022-03-10T00:47:46Z) - Machine Learning Techniques for Software Quality Assurance: A Survey [5.33024001730262]
我々は,障害予測とテストケース優先順位付けの両方における様々なアプローチについて考察する。
近年,障害予測のためのディープラーニングアルゴリズムは,プログラムのセマンティクスと障害予測機能とのギャップを埋めるのに役立つ。
論文 参考訳(メタデータ) (2021-04-29T00:37:27Z) - Uncertainty-aware Remaining Useful Life predictor [57.74855412811814]
有効寿命 (Remaining Useful Life, RUL) とは、特定の産業資産の運用期間を推定する問題である。
本研究では,Deep Gaussian Processes (DGPs) を,前述の制限に対する解決策と捉える。
アルゴリズムの性能はNASAの航空機エンジン用N-CMAPSSデータセットで評価される。
論文 参考訳(メタデータ) (2021-04-08T08:50:44Z) - Robust and Transferable Anomaly Detection in Log Data using Pre-Trained
Language Models [59.04636530383049]
クラウドのような大規模コンピュータシステムにおける異常や障害は、多くのユーザに影響を与える。
システム情報の主要なトラブルシューティングソースとして,ログデータの異常検出のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-23T09:17:05Z) - A Review On Software Defects Prediction Methods [0.0]
ソフトウェア欠陥分類のための機械学習アルゴリズムの性能解析を行う。
私たちはこの研究のためにNASAのpromiseデータセットリポジトリから7つのデータセットを使用しました。
論文 参考訳(メタデータ) (2020-10-30T16:10:23Z) - Software Effort Estimation using parameter tuned Models [1.9336815376402716]
見積もりの正確さは、プロジェクトの失敗の理由です。
ソフトウェア業界の最大の落とし穴は、ソフトウェア開発の急速に変化する性質であった。
ソフトウェア製品の開発コストを正確に予測する有用なモデルの開発が必要です。
論文 参考訳(メタデータ) (2020-08-25T15:18:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。