論文の概要: AutoEmpirical: LLM-Based Automated Research for Empirical Software Fault Analysis
- arxiv url: http://arxiv.org/abs/2510.04997v1
- Date: Mon, 06 Oct 2025 16:37:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.988523
- Title: AutoEmpirical: LLM-Based Automated Research for Empirical Software Fault Analysis
- Title(参考訳): AutoEmpirical: 経験的ソフトウェア故障解析のためのLLMに基づく自動研究
- Authors: Jiongchi Yu, Weipeng Jiang, Xiaoyu Zhang, Qiang Hu, Xiaofei Xie, Chao Shen,
- Abstract要約: 本稿では,経験的ソフトウェア故障研究の過程を,研究目標定義,データ準備,故障解析の3つの重要な段階に分解する。
本研究では,Large Language Models (LLMs) が故障解析の効率を大幅に向上し,平均処理時間は約2時間であることを示す。
- 参考スコア(独自算出の注目度): 29.429275242269664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding software faults is essential for empirical research in software development and maintenance. However, traditional fault analysis, while valuable, typically involves multiple expert-driven steps such as collecting potential faults, filtering, and manual investigation. These processes are both labor-intensive and time-consuming, creating bottlenecks that hinder large-scale fault studies in complex yet critical software systems and slow the pace of iterative empirical research. In this paper, we decompose the process of empirical software fault study into three key phases: (1) research objective definition, (2) data preparation, and (3) fault analysis, and we conduct an initial exploration study of applying Large Language Models (LLMs) for fault analysis of open-source software. Specifically, we perform the evaluation on 3,829 software faults drawn from a high-quality empirical study. Our results show that LLMs can substantially improve efficiency in fault analysis, with an average processing time of about two hours, compared to the weeks of manual effort typically required. We conclude by outlining a detailed research plan that highlights both the potential of LLMs for advancing empirical fault studies and the open challenges that required be addressed to achieve fully automated, end-to-end software fault analysis.
- Abstract(参考訳): ソフトウェア欠陥を理解することは、ソフトウェア開発とメンテナンスの実証研究に不可欠である。
しかし、従来のフォールト分析は価値があるが、一般的には潜在的な障害の収集、フィルタリング、手動による調査など、専門家主導の複数のステップが伴う。
これらのプロセスは、労働集約的かつ時間を要するもので、複雑だがクリティカルなソフトウェアシステムにおける大規模な障害研究を妨げ、反復的な経験的研究のペースを遅らせるボトルネックを生み出します。
本稿では,(1)研究目標定義,(2)データ準備,(3)故障解析の3つの段階に分けて実験的ソフトウェア故障研究の過程を分解し,オープンソースソフトウェアの故障解析に大規模言語モデル(LLM)を適用した最初の調査研究を行う。
具体的には,高品質な実証実験から得られたソフトウェア欠陥3,829件について評価を行う。
以上の結果から, LLMは, 通常の手作業よりも平均処理時間約2時間で, 故障解析の効率を大幅に向上できることがわかった。
我々は、経験的欠陥研究を進めるためのLLMの可能性と、完全に自動化されたエンドツーエンドのソフトウェア障害解析を達成するために必要なオープンな課題の両方を強調した詳細な研究計画の概要をまとめて締めくくる。
関連論文リスト
- Why Do Open-Source LLMs Struggle with Data Analysis? A Systematic Empirical Study [55.09905978813599]
大規模言語モデル(LLM)は、データ分析タスクの自動化を約束する。
しかし、オープンソースモデルは、このような推論集約的なシナリオにおいて、重大な制限に直面している。
本研究では,オープンソースLLMのデータ解析機能を強化するための戦略について検討する。
論文 参考訳(メタデータ) (2025-06-24T17:04:23Z) - Flowco: Rethinking Data Analysis in the Age of LLMs [2.1874189959020427]
大規模言語モデル(LLM)は、単純なルーチン解析のためにそのようなコードを生成することができるようになった。
LLMは、限られたプログラミングの専門知識を持つ者がデータ分析を行うことで、データサイエンスの民主化を約束する。
多くの実世界のアナリストは、特定の分析手順をきめ細かな制御をしなければならない。
本稿では,これらの課題に対処する新たな混合開始システムであるFlowcoを紹介する。
論文 参考訳(メタデータ) (2025-04-18T19:01:27Z) - Large Language Models (LLMs) for Source Code Analysis: applications, models and datasets [3.8740749765622167]
大規模言語モデル(LLM)やトランスフォーマーベースのアーキテクチャは、ますますソースコード解析に利用されている。
本稿では,3つの重要な側面に焦点をあて,異なるコード解析タスクにおけるLLMの役割について考察する。
論文 参考訳(メタデータ) (2025-03-21T19:29:50Z) - LLM-based event log analysis techniques: A survey [1.6180992915701702]
イベントログは、コンピューティングデバイスで発生するアクティビティに関する重要な情報を記録する。
研究者は、イベントログ分析プロセスを改善するために、自動テクニックを開発した。
本稿では,LLMを用いたイベントログ解析手法について検討する。
論文 参考訳(メタデータ) (2025-02-02T05:28:17Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - A Case Study on Test Case Construction with Large Language Models:
Unveiling Practical Insights and Challenges [2.7029792239733914]
本稿では,ソフトウェア工学の文脈におけるテストケース構築における大規模言語モデルの適用について検討する。
定性分析と定量分析の混合により, LLMが試験ケースの包括性, 精度, 効率に与える影響を評価する。
論文 参考訳(メタデータ) (2023-12-19T20:59:02Z) - Automatic Feasibility Study via Data Quality Analysis for ML: A
Case-Study on Label Noise [21.491392581672198]
我々はSnoopyを紹介し、データサイエンティストと機械学習エンジニアが体系的で理論的に確立された実現可能性研究を行うのを支援することを目的としている。
我々は、基礎となるタスクの既約誤差を推定し、この問題にアプローチする。
エンド・ツー・エンドの実験では、ユーザーがかなりのラベリング時間と金銭的努力を節約できることを示す。
論文 参考訳(メタデータ) (2020-10-16T14:21:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。