論文の概要: AutoEmpirical: LLM-Based Automated Research for Empirical Software Fault Analysis
- arxiv url: http://arxiv.org/abs/2510.04997v1
- Date: Mon, 06 Oct 2025 16:37:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.988523
- Title: AutoEmpirical: LLM-Based Automated Research for Empirical Software Fault Analysis
- Title(参考訳): AutoEmpirical: 経験的ソフトウェア故障解析のためのLLMに基づく自動研究
- Authors: Jiongchi Yu, Weipeng Jiang, Xiaoyu Zhang, Qiang Hu, Xiaofei Xie, Chao Shen,
- Abstract要約: 本稿では,経験的ソフトウェア故障研究の過程を,研究目標定義,データ準備,故障解析の3つの重要な段階に分解する。
本研究では,Large Language Models (LLMs) が故障解析の効率を大幅に向上し,平均処理時間は約2時間であることを示す。
- 参考スコア(独自算出の注目度): 29.429275242269664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding software faults is essential for empirical research in software development and maintenance. However, traditional fault analysis, while valuable, typically involves multiple expert-driven steps such as collecting potential faults, filtering, and manual investigation. These processes are both labor-intensive and time-consuming, creating bottlenecks that hinder large-scale fault studies in complex yet critical software systems and slow the pace of iterative empirical research. In this paper, we decompose the process of empirical software fault study into three key phases: (1) research objective definition, (2) data preparation, and (3) fault analysis, and we conduct an initial exploration study of applying Large Language Models (LLMs) for fault analysis of open-source software. Specifically, we perform the evaluation on 3,829 software faults drawn from a high-quality empirical study. Our results show that LLMs can substantially improve efficiency in fault analysis, with an average processing time of about two hours, compared to the weeks of manual effort typically required. We conclude by outlining a detailed research plan that highlights both the potential of LLMs for advancing empirical fault studies and the open challenges that required be addressed to achieve fully automated, end-to-end software fault analysis.
- Abstract(参考訳): ソフトウェア欠陥を理解することは、ソフトウェア開発とメンテナンスの実証研究に不可欠である。
しかし、従来のフォールト分析は価値があるが、一般的には潜在的な障害の収集、フィルタリング、手動による調査など、専門家主導の複数のステップが伴う。
これらのプロセスは、労働集約的かつ時間を要するもので、複雑だがクリティカルなソフトウェアシステムにおける大規模な障害研究を妨げ、反復的な経験的研究のペースを遅らせるボトルネックを生み出します。
本稿では,(1)研究目標定義,(2)データ準備,(3)故障解析の3つの段階に分けて実験的ソフトウェア故障研究の過程を分解し,オープンソースソフトウェアの故障解析に大規模言語モデル(LLM)を適用した最初の調査研究を行う。
具体的には,高品質な実証実験から得られたソフトウェア欠陥3,829件について評価を行う。
以上の結果から, LLMは, 通常の手作業よりも平均処理時間約2時間で, 故障解析の効率を大幅に向上できることがわかった。
我々は、経験的欠陥研究を進めるためのLLMの可能性と、完全に自動化されたエンドツーエンドのソフトウェア障害解析を達成するために必要なオープンな課題の両方を強調した詳細な研究計画の概要をまとめて締めくくる。
関連論文リスト
- Toward Automated and Trustworthy Scientific Analysis and Visualization with LLM-Generated Code [6.068120728706316]
大規模言語モデル(LLM)は、自然言語記述からコードを生成することで、有望なソリューションを提供する。
実際の研究課題を反映したドメインインスパイアされたプロンプトのベンチマークスイートを構築した。
人間の介入なしには, LLM生成コードの信頼性は限られている。
論文 参考訳(メタデータ) (2025-11-26T21:27:03Z) - An Empirical Study of Reasoning Steps in Thinking Code LLMs [8.653365851909745]
大規模言語モデルを考えると、最終回答の前に明確な中間推論トレースを生成する。
本研究では,コード生成のためのLLMの推論過程と品質について検討する。
論文 参考訳(メタデータ) (2025-11-08T06:18:48Z) - LogReasoner: Empowering LLMs with Expert-like Coarse-to-Fine Reasoning for Automated Log Analysis [66.79746720402811]
汎用大規模言語モデル(LLM)は、専門家の認識と整合した構造化推論を定式化し、推論ステップの正確な詳細を提供するのに苦労する。
我々は,LLMが専門家のようなログ解析タスクを推論できるように設計された粗粒度拡張フレームワークであるLogReasonerを提案する。
我々は,Qwen-2.5 や Llama-3 といったオープンソースの LLM を用いて,ログ解析の4つのタスクについてLogReasoner の評価を行った。
論文 参考訳(メタデータ) (2025-09-25T06:26:49Z) - Why Do Open-Source LLMs Struggle with Data Analysis? A Systematic Empirical Study [55.09905978813599]
大規模言語モデル(LLM)は、データ分析タスクの自動化を約束する。
しかし、オープンソースモデルは、このような推論集約的なシナリオにおいて、重大な制限に直面している。
本研究では,オープンソースLLMのデータ解析機能を強化するための戦略について検討する。
論文 参考訳(メタデータ) (2025-06-24T17:04:23Z) - KnowCoder-V2: Deep Knowledge Analysis [64.63893361811968]
我々は、深い知識分析能力を持つ深層研究を支援するtextbfKnowledgeable textbfDeep textbfResearch (textbfKDR) フレームワークを提案する。
大規模なドメイン関連データをオフラインで体系的な知識にプリプロセスするために、独立した知識組織フェーズを導入する。
そして、オンラインの方法で複雑な知識計算を行うための、新たな推論ステップによって、ディープリサーチを拡張します。
論文 参考訳(メタデータ) (2025-06-07T18:01:25Z) - Evaluating Large Language Models for Real-World Engineering Tasks [75.97299249823972]
本稿では,実運用指向のエンジニアリングシナリオから得られた100以上の質問をキュレートしたデータベースを提案する。
このデータセットを用いて、4つの最先端の大規模言語モデル(LLM)を評価する。
以上の結果から,LLMは時間的および構造的推論において強みを示すが,抽象的推論や形式的モデリング,文脈に敏感な工学的論理にはかなり苦労することがわかった。
論文 参考訳(メタデータ) (2025-05-12T14:05:23Z) - Flowco: Rethinking Data Analysis in the Age of LLMs [2.1874189959020427]
大規模言語モデル(LLM)は、単純なルーチン解析のためにそのようなコードを生成することができるようになった。
LLMは、限られたプログラミングの専門知識を持つ者がデータ分析を行うことで、データサイエンスの民主化を約束する。
多くの実世界のアナリストは、特定の分析手順をきめ細かな制御をしなければならない。
本稿では,これらの課題に対処する新たな混合開始システムであるFlowcoを紹介する。
論文 参考訳(メタデータ) (2025-04-18T19:01:27Z) - Large Language Models (LLMs) for Source Code Analysis: applications, models and datasets [3.8740749765622167]
大規模言語モデル(LLM)やトランスフォーマーベースのアーキテクチャは、ますますソースコード解析に利用されている。
本稿では,3つの重要な側面に焦点をあて,異なるコード解析タスクにおけるLLMの役割について考察する。
論文 参考訳(メタデータ) (2025-03-21T19:29:50Z) - LLM-based event log analysis techniques: A survey [1.6180992915701702]
イベントログは、コンピューティングデバイスで発生するアクティビティに関する重要な情報を記録する。
研究者は、イベントログ分析プロセスを改善するために、自動テクニックを開発した。
本稿では,LLMを用いたイベントログ解析手法について検討する。
論文 参考訳(メタデータ) (2025-02-02T05:28:17Z) - Designing Algorithms Empowered by Language Models: An Analytical Framework, Case Studies, and Insights [86.06371692309972]
本研究では,大規模言語モデル(LLM)に基づくアルゴリズムの設計と解析のための分析フレームワークを提案する。
提案する枠組みは頭痛を緩和する試みとして機能する。
論文 参考訳(メタデータ) (2024-07-20T07:39:07Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - A Case Study on Test Case Construction with Large Language Models:
Unveiling Practical Insights and Challenges [2.7029792239733914]
本稿では,ソフトウェア工学の文脈におけるテストケース構築における大規模言語モデルの適用について検討する。
定性分析と定量分析の混合により, LLMが試験ケースの包括性, 精度, 効率に与える影響を評価する。
論文 参考訳(メタデータ) (2023-12-19T20:59:02Z) - Automatic Feasibility Study via Data Quality Analysis for ML: A
Case-Study on Label Noise [21.491392581672198]
我々はSnoopyを紹介し、データサイエンティストと機械学習エンジニアが体系的で理論的に確立された実現可能性研究を行うのを支援することを目的としている。
我々は、基礎となるタスクの既約誤差を推定し、この問題にアプローチする。
エンド・ツー・エンドの実験では、ユーザーがかなりのラベリング時間と金銭的努力を節約できることを示す。
論文 参考訳(メタデータ) (2020-10-16T14:21:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。