論文の概要: CatchAll: Repository-Aware Exception Handling with Knowledge-Guided LLMs
- arxiv url: http://arxiv.org/abs/2601.01271v1
- Date: Sat, 03 Jan 2026 20:03:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.156258
- Title: CatchAll: Repository-Aware Exception Handling with Knowledge-Guided LLMs
- Title(参考訳): CatchAll: 知識誘導型LLMによるレポジトリ対応例外処理
- Authors: Qingxiao Tao, Xiaodong Gu, Hao Zhong, Beijun Shen,
- Abstract要約: 例外処理は、多くのプログラミング言語において重要なエラー回復メカニズムである。
我々はリポジトリ対応例外処理の新しいアプローチであるCatchAllを提案する。
CatchAllを評価するために、リポジトリ対応例外処理のための2つの新しいベンチマークを構築した。
- 参考スコア(独自算出の注目度): 11.461605017230424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Exception handling is a vital forward error-recovery mechanism in many programming languages, enabling developers to manage runtime anomalies through structured constructs (e.g., try-catch blocks). Improper or missing exception handling often leads to severe consequences, including system crashes and resource leaks. While large language models (LLMs) have demonstrated strong capabilities in code generation, they struggle with exception handling at the repository level, due to complex dependencies and contextual constraints. In this work, we propose CatchAll, a novel LLM-based approach for repository-aware exception handling. CatchAll equips LLMs with three complementary layers of exception-handling knowledge: (1) API-level exception knowledge, obtained from an empirically constructed API-exception mapping that characterizes the exception-throwing behaviors of APIs in real-world codebases; (2) repository-level execution context, which captures exception propagation by modeling contextual call traces around the target code; and (3) cross-repository handling knowledge, distilled from reusable exception-handling patterns mined from historical code across projects. The knowledge is encoded into structured prompts to guide the LLM in generating accurate and context-aware exception-handling code. To evaluate CatchAll, we construct two new benchmarks for repository-aware exception handling: a large-scale dataset RepoExEval and an executable subset RepoExEval-Exec. Experiments demonstrate that RepoExEval consistently outperforms state-of-the-art baselines, achieving a CodeBLEU score of 0.31 (vs. 0.27% for the best baseline), intent prediction accuracy of 60.1% (vs. 48.0%), and Pass@1 of 29% (vs. 25%). These results affirm RepoExEval's effectiveness in real-world repository-level exception handling.
- Abstract(参考訳): 例外処理は、多くのプログラミング言語において重要なエラー回復メカニズムであり、開発者は構造化された構造体(例えばtry-catchブロック)を通してランタイム異常を管理することができる。
不適切な、または欠落した例外処理は、システムクラッシュやリソースリークなど、深刻な結果をもたらすことが多い。
大きな言語モデル(LLM)はコード生成において強力な機能を示しているが、複雑な依存関係とコンテキスト制約のため、リポジトリレベルで例外処理に苦労している。
本研究では,レポジトリ対応例外処理のための新しいLCMベースのアプローチであるCatchAllを提案する。
CatchAll は LLM に 3 つの補完的な例外処理知識を装備する。(1) 実世界のコードベースにおける API の例外処理動作を特徴付ける,経験的に構築された API 例外処理マッピングから得られる API レベルの例外処理知識,(2) リポジトリレベルの実行コンテキスト。
知識は構造化プロンプトにエンコードされ、LLMが正確でコンテキスト対応の例外処理コードを生成する際にガイドされる。
CatchAllを評価するために,大規模なデータセットRepoExEvalと実行可能なサブセットRepoExEval-Execという,リポジトリ対応例外処理のための2つの新しいベンチマークを構築した。
実験によると、RepoExEvalは最先端のベースラインを一貫して上回り、CodeBLEUスコアは0.31(vs.0.27%)、意図予測精度は60.1%(vs. 48.0%)、Pass@1(vs.25%)である。
これらの結果は,レポジトリレベルの例外処理におけるRepoExEvalの有効性を裏付けるものだ。
関連論文リスト
- External Data Extraction Attacks against Retrieval-Augmented Large Language Models [70.47869786522782]
RAGは、大規模言語モデル(LLM)を拡張するための重要なパラダイムとして登場した。
RAGは外部データ抽出攻撃(EDEA)の新たなリスクを導入している。
本研究は, EDEA を検索拡張 LLM に対して形式化する最初の総合的研究である。
論文 参考訳(メタデータ) (2025-10-03T12:53:45Z) - Where LLM Agents Fail and How They can Learn From Failures [62.196870049524364]
大規模言語モデル(LLM)エージェントは、複雑なマルチステップタスクの解決において有望であることを示す。
単一ルート原因エラーがその後の決定を通じて伝播する、障害のカスケードに対する脆弱性を増幅する。
現在のシステムは、モジュール的で体系的な方法でエージェントエラーを包括的に理解できるフレームワークを欠いている。
AgentErrorTaxonomyは、メモリ、リフレクション、計画、アクション、システムレベルの操作にまたがる障害モードのモジュール分類である。
論文 参考訳(メタデータ) (2025-09-29T18:20:27Z) - SHIELDA: Structured Handling of Exceptions in LLM-Driven Agentic Workflows [12.727172180194653]
LLM(Large Language Model) エージェントシステム(LLM)は、多段階プロセスの自律的推論、計画、実行を行うLLMをベースとしたソフトウェアシステムである。
既存の例外処理ソリューションは、しばしば例外を表面的に扱い、実行フェーズ例外を根本原因にトレースすることができない。
LLMエージェントランタイムのためのモジュール型例外処理フレームワークShielDAを提案する。
論文 参考訳(メタデータ) (2025-08-11T12:50:46Z) - Seeker: Towards Exception Safety Code Generation with Intermediate Language Agents Framework [58.36391985790157]
現実世界のソフトウェア開発では、不適切な例外処理がコードの堅牢性と信頼性に重大な影響を与えます。
コードにおける例外処理を改善するために,大規模言語モデル (LLM) の利用について検討する。
例外処理のエキスパート開発者戦略に触発されたマルチエージェントフレームワークであるSeekerを提案する。
論文 参考訳(メタデータ) (2024-12-16T12:35:29Z) - Towards Exception Safety Code Generation with Intermediate Representation Agents Framework [54.03528377384397]
大規模言語モデル(LLM)は、しばしば生成されたコードの堅牢な例外処理に苦しむ。
中間表現(IR)アプローチにより,LLM生成コードの例外安全性を実現する新しいマルチエージェントフレームワークであるSeekerを提案する。
Seekerは例外処理をScanner, Detector, Predator, Ranker, Handlerの5つの特殊エージェントに分解する。
論文 参考訳(メタデータ) (2024-10-09T14:45:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。