論文の概要: Statistical-Based Metric Threshold Setting Method for Software Fault Prediction in Firmware Projects: An Industrial Experience
- arxiv url: http://arxiv.org/abs/2602.06831v1
- Date: Fri, 06 Feb 2026 16:19:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.477861
- Title: Statistical-Based Metric Threshold Setting Method for Software Fault Prediction in Firmware Projects: An Industrial Experience
- Title(参考訳): ファームウェアプロジェクトにおけるソフトウェア故障予測のための統計的基準設定法:産業経験
- Authors: Marco De Luca, Domenico Amalfitano, Anna Rita Fasolino, Porfirio Tramontana,
- Abstract要約: マシンラーニングベースのフォールト予測モデルは高い精度を示しているが、解釈可能性の欠如により、産業環境での採用が制限されている。
本稿では,産業環境における故障検出への統合に適したコンテキスト固有のソフトウェアメトリックしきい値を定義するための構造化プロセスを提案する。
提案手法は,一組のプロジェクトからしきい値を取得し,個別に開発したファームウェアに適用することにより,プロジェクト間の障害予測を支援する。
- 参考スコア(独自算出の注目度): 4.339839287869652
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Ensuring software quality in embedded firmware is critical, especially in safety-critical domains where compliance with functional safety standards (ISO 26262) requires strong guarantees of software reliability. While machine learning-based fault prediction models have demonstrated high accuracy, their lack of interpretability limits their adoption in industrial settings. Developers need actionable insights that can be directly employed in software quality assurance processes and guide defect mitigation strategies. In this paper, we present a structured process for defining context-specific software metric thresholds suitable for integration into fault detection workflows in industrial settings. Our approach supports cross-project fault prediction by deriving thresholds from one set of projects and applying them to independently developed firmware, thereby enabling reuse across similar software systems without retraining or domain-specific tuning. We analyze three real-world C-embedded firmware projects provided by an industrial partner, using Coverity and Understand static analysis tools to extract software metrics. Through statistical analysis and hypothesis testing, we identify discriminative metrics and derived empirical threshold values capable of distinguishing faulty from non-faulty functions. The derived thresholds are validated through an experimental evaluation, demonstrating their effectiveness in identifying fault-prone functions with high precision. The results confirm that the derived thresholds can serve as an interpretable solution for fault prediction, aligning with industry standards and SQA practices. This approach provides a practical alternative to black-box AI models, allowing developers to systematically assess software quality, take preventive actions, and integrate metric-based fault prediction into industrial development workflows to mitigate software faults.
- Abstract(参考訳): 組込みファームウェアにおけるソフトウェア品質の保証は、特に機能安全基準(ISO 26262)に準拠したソフトウェア信頼性の保証を必要とする安全クリティカルな領域において重要である。
機械学習ベースの故障予測モデルは高い精度を示しているが、解釈可能性の欠如は産業環境での採用を制限する。
開発者は、ソフトウェア品質保証プロセスに直接適用でき、欠陥軽減戦略をガイドできる実行可能な洞察が必要です。
本稿では,産業環境における故障検出ワークフローへの統合に適したコンテキスト固有のソフトウェアメトリックしきい値を定義するための構造化プロセスを提案する。
提案手法は,一組のプロジェクトからしきい値を取得して独自に開発したファームウェアに適用することにより,プロジェクト間の障害予測を支援する。
ソフトウェアメトリクスを抽出するために,Coverity と Understand の静的解析ツールを用いて,産業パートナーが提供した3つの実世界の C 組み込みファームウェアプロジェクトを分析した。
統計的分析と仮説テストにより,非フーティ関数と非フーティ関数を区別できる識別的指標と抽出された経験的閾値を同定する。
得られたしきい値は実験により検証され,高い精度で断層発生関数を同定する上での有効性が示された。
その結果, 得られたしきい値が, 業界標準やSQAプラクティスと整合して, 故障予測の解釈可能なソリューションとして機能することが確認された。
このアプローチは、ブラックボックスAIモデルの実用的な代替手段を提供し、開発者は、ソフトウェア品質を体系的に評価し、予防措置を取り、メトリックベースの障害予測を産業開発ワークフローに統合し、ソフトウェア欠陥を軽減できる。
関連論文リスト
- Towards Comprehensive Benchmarking Infrastructure for LLMs In Software Engineering [19.584762693453893]
BEHELMは、ソフトウェア・シナリオ仕様とマルチメトリック評価を一体化する総合的なベンチマーク基盤である。
私たちのゴールは、ソフトウェア工学におけるLLMの公平で現実的で将来的な評価を可能にしながら、ベンチマークを構築するのに必要なオーバーヘッドを減らすことです。
論文 参考訳(メタデータ) (2026-01-28T21:55:10Z) - Reliable LLM-Based Edge-Cloud-Expert Cascades for Telecom Knowledge Systems [54.916243942641444]
大規模言語モデル(LLM)は、通信などの分野において、自動化の鍵となる存在として浮上している。
本研究では,問合せパイプラインによる意思決定を支援する,エッジクラウドに精通したLLMベースの知識システムについて検討する。
論文 参考訳(メタデータ) (2025-12-23T03:10:09Z) - OSS-UAgent: An Agent-based Usability Evaluation Framework for Open Source Software [47.02288620982592]
我々のフレームワークは,大規模言語モデル(LLM)を利用したインテリジェントエージェントを用いて,プログラミングタスクを実行する開発者をシミュレートする。
OSS-UAgentは正確でコンテキスト対応のコード生成を保証する。
本稿では,OSS-UAgentがグラフ解析プラットフォーム評価に活用している実例を紹介する。
論文 参考訳(メタデータ) (2025-05-29T08:40:10Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - Enhancing LLM Reliability via Explicit Knowledge Boundary Modeling [41.19330514054401]
大規模言語モデル(LLM)は、不一致の自己認識に起因する幻覚の傾向にある。
本稿では,高速かつ低速な推論システムを統合し,信頼性とユーザビリティを調和させる明示的知識境界モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-04T03:16:02Z) - Outside the Comfort Zone: Analysing LLM Capabilities in Software Vulnerability Detection [9.652886240532741]
本稿では,ソースコードの脆弱性検出における大規模言語モデルの機能について,徹底的に解析する。
我々は6つの汎用LCMに対して脆弱性検出を特別に訓練した6つのオープンソースモデルの性能を評価する。
論文 参考訳(メタデータ) (2024-08-29T10:00:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。