論文の概要: Explaining Code Risk in OSS: Towards LLM-Generated Fault Prediction Interpretations
- arxiv url: http://arxiv.org/abs/2510.06104v1
- Date: Tue, 07 Oct 2025 16:36:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.357752
- Title: Explaining Code Risk in OSS: Towards LLM-Generated Fault Prediction Interpretations
- Title(参考訳): OSSにおけるコードリスクの説明 - LLM生成障害予測解釈に向けて
- Authors: Elijah Kayode Adejumo, Brittany Johnson,
- Abstract要約: オープンソースソフトウェア(OSS)は、その価値のために、世界中で非常に重要で重要なインフラになっています。
バグの修正や新機能の実装など、安全な変更を行うことは困難である。
我々は,Large Language Models (LLMs) が故障予測指標を明確かつ可読なリスク説明に翻訳できるかどうかを検討する。
- 参考スコア(独自算出の注目度): 5.258181425686992
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open Source Software (OSS) has become a very important and crucial infrastructure worldwide because of the value it provides. OSS typically depends on contributions from developers across diverse backgrounds and levels of experience. Making safe changes, such as fixing a bug or implementing a new feature, can be challenging, especially in object-oriented systems where components are interdependent. Static analysis and defect-prediction tools produce metrics (e.g., complexity,coupling) that flag potentially fault-prone components, but these signals are often hard for contributors new or unfamiliar with the codebase to interpret. Large Language Models (LLMs) have shown strong performance on software engineering tasks such as code summarization and documentation generation. Building on this progress, we investigate whether LLMs can translate fault-prediction metrics into clear, human-readable risk explanations and actionable guidance to help OSS contributors plan and review code modifications. We outline explanation types that an LLM-generated assistant could provide (descriptive, contextual, and actionable explanations). We also outline our next steps to assess usefulness through a task-based study with OSS contributors, comparing metric-only baselines to LLM-generated explanations on decision quality, time-to-completion, and error rates
- Abstract(参考訳): オープンソースソフトウェア(OSS)は、その価値のために、世界中で非常に重要で重要なインフラになっています。
OSSは通常、さまざまなバックグラウンドと経験レベルにわたる開発者からのコントリビューションに依存します。
バグの修正や新機能の実装など、安全な変更を行うことは、特にコンポーネントが相互依存しているオブジェクト指向システムでは、難しい場合がある。
静的解析と欠陥予測ツールは、潜在的に障害を起こしやすいコンポーネントにフラグを付けるメトリクス(例えば、複雑性、結合)を生成するが、これらのシグナルは、コードベースに馴染みのない新規または未熟なコントリビュータにとって、しばしば困難である。
大規模言語モデル(LLM)は、コードの要約やドキュメント生成といったソフトウェア工学のタスクに強いパフォーマンスを示しています。
本研究は,LLMが故障予測指標を,OSSコントリビュータによるコード修正の計画とレビューを支援するために,明確かつ可読なリスク説明と実行可能なガイダンスに翻訳できるかどうかを考察する。
LLM生成アシスタントが提供できる説明型(記述型、文脈型、動作可能な説明)について概説する。
また、OSSコントリビュータによるタスクベースの調査を通じて有用性を評価するための次のステップについて概説する。
関連論文リスト
- CORE: Benchmarking LLMs Code Reasoning Capabilities through Static Analysis Tasks [12.465309397733249]
大規模言語モデル(LLM)は様々なソフトウェア工学領域で広く採用されている。
これらのアプリケーションは、表面レベルのコードパターン以上の理解を必要とします。
既存のベンチマークは、コードが正しく修正されるか、生成されたかといったエンドツーエンドの結果を主に評価する。
論文 参考訳(メタデータ) (2025-07-03T01:35:58Z) - Towards a Science of Causal Interpretability in Deep Learning for Software Engineering [0.32634122554914]
ソフトウエアエンジニアリングのための深層学習(DL4SE)における因果解釈性を達成するための論文演説
Dissertationがニューラルネットワークモデル(NCM)の新しいポストホック解釈方法であるDoCodeを導入
DoCodeは因果推論を使用して、モデル予測のプログラミング言語指向の説明を提供する。
論文 参考訳(メタデータ) (2025-05-21T02:13:11Z) - OSS-Bench: Benchmark Generator for Coding LLMs [4.393587297483245]
本稿では,実世界のオープンソースソフトウェアから大規模かつ実運用的な評価タスクを構築するベンチマークジェネレータOSS-Benchを紹介する。
OSS-Benchは、関数をLLM生成コードに置き換えて、コンパイル性、機能的正確性、メモリ安全性という3つの自然な指標を使用して評価する。
OSS-BenchはOSSの複雑さの進化を生かして過度な適合を緩和することを示した。
論文 参考訳(メタデータ) (2025-05-18T09:53:51Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by Dissociating Language and Cognition [56.76951887823882]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - INTERS: Unlocking the Power of Large Language Models in Search with Instruction Tuning [59.07490387145391]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて印象的な機能を示している。
情報検索(IR)タスクへのそれらの適用は、自然言語における多くのIR固有の概念の頻繁な発生のため、いまだに困難である。
我々は,3つの基本IRカテゴリにまたがる20のタスクを含む新しいインストラクションチューニングデータセット InterS を導入する。
論文 参考訳(メタデータ) (2024-01-12T12:10:28Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - When does In-context Learning Fall Short and Why? A Study on
Specification-Heavy Tasks [54.71034943526973]
In-context Learning (ICL)は、大規模言語モデル(LLM)のデフォルトメソッドとなっている。
ICLは、複雑で広範囲なタスク仕様を持つタスクである、仕様の重いタスクを処理できないことが分かりました。
我々は、コンテキストを具体的に理解できないこと、タスクスキーマが人間と理解できないこと、長文理解が不十分であること、の3つの主な理由を識別する。
論文 参考訳(メタデータ) (2023-11-15T14:26:30Z) - Benchmarking and Explaining Large Language Model-based Code Generation:
A Causality-Centric Approach [12.214585409361126]
大規模言語モデル(LLM)ベースのコード生成は複雑で強力なブラックボックスモデルである。
本稿では,プロンプトと生成されたコードの因果グラフに基づく新しい表現を提案する。
我々は,12以上の迅速な調整戦略で3つの人気のあるLCMを研究することで,我々のフレームワークが提供できる洞察について説明する。
論文 参考訳(メタデータ) (2023-10-10T14:56:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。