論文の概要: Tracing Errors, Constructing Fixes: Repository-Level Memory Error Repair via Typestate-Guided Context Retrieval
- arxiv url: http://arxiv.org/abs/2506.18394v1
- Date: Mon, 23 Jun 2025 08:30:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.906522
- Title: Tracing Errors, Constructing Fixes: Repository-Level Memory Error Repair via Typestate-Guided Context Retrieval
- Title(参考訳): 修正のためのトレースエラー: タイプステートガイド型コンテキスト検索によるリポジトリレベルメモリエラー修復
- Authors: Xiao Cheng, Zhihao Guo, Huan Huo, Yulei Sui,
- Abstract要約: 本稿では,LLM(Large Language Models)を利用したメモリエラーの自動修復手法であるLTFixを紹介する。
提案手法では,有限型オートマトンを用いてエラー伝達経路とコンテキストトレースの追跡を誘導し,空間的(記憶状態)と時間的(実行履歴)の両方のエラー挙動をキャプチャする。
- 参考スコア(独自算出の注目度): 9.737526306478598
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Memory-related errors in C programming continue to pose significant challenges in software development, primarily due to the complexities of manual memory management inherent in the language. These errors frequently serve as vectors for severe vulnerabilities, while their repair requires extensive knowledge of program logic and C's memory model. Automated Program Repair (APR) has emerged as a critical research area to address these challenges. Traditional APR approaches rely on expert-designed strategies and predefined templates, which are labor-intensive and constrained by the effectiveness of manual specifications. Deep learning techniques offer a promising alternative by automatically extracting repair patterns, but they require substantial training datasets and often lack interpretability. This paper introduces LTFix, a novel approach that harnesses the potential of Large Language Models (LLMs) for automated memory error repair, especially for complex repository-level errors that span multiple functions and files. We address two fundamental challenges in LLM-based memory error repair: a limited understanding of interprocedural memory management patterns and context window limitations for repository-wide analysis. Our approach utilizes a finite typestate automaton to guide the tracking of error-propagation paths and context trace, capturing both spatial (memory states) and temporal (execution history) dimensions of error behavior. This typestate-guided context retrieval strategy provides the LLM with concise yet semantically rich information relevant to erroneous memory management, effectively addressing the token limitation of LLMs.
- Abstract(参考訳): C言語プログラミングにおけるメモリ関連のエラーは、主に言語固有の手動メモリ管理の複雑さのために、ソフトウェア開発において重大な課題を生じ続けている。
これらのエラーはしばしば深刻な脆弱性のベクターとして機能し、その修復にはプログラムロジックとCのメモリモデルに関する広範な知識が必要である。
これらの課題に対処する重要な研究分野として、APR(Automated Program repair)が出現している。
従来のAPRアプローチは、専門家が設計した戦略と事前定義されたテンプレートに依存している。
ディープラーニング技術は、修復パターンを自動的に抽出することで、有望な代替手段を提供する。
本稿では,複数の関数やファイルにまたがる複雑なリポジトリレベルのエラーに対して,LLM(Large Language Models)の可能性を生かした新しいアプローチであるLTFixを紹介する。
LLMベースのメモリエラー修復における2つの基本的な課題に対処する。
提案手法では,有限型オートマトンを用いてエラー伝達経路とコンテキストトレースの追跡を誘導し,空間的(記憶状態)と時間的(実行履歴)の両方のエラー挙動をキャプチャする。
このタイプステート誘導型コンテキスト検索戦略は、LLMに誤ったメモリ管理に関連する簡潔だが意味的にリッチな情報を提供し、LLMのトークン制限に効果的に対処する。
関連論文リスト
- MEMOIR: Lifelong Model Editing with Minimal Overwrite and Informed Retention for LLMs [82.34547399693966]
寿命の長いモデル編集のための既存の方法は、妥協の一般化、過去の編集の妨害、長い編集シーケンスへのスケールの失敗である。
残メモリを介して知識を注入する新しいスケーラブルなフレームワークであるMEMOIRを提案する。
MeMOIRは各編集をメモリパラメータの別のサブセットに限定し、編集間の干渉を最小限にする。
論文 参考訳(メタデータ) (2025-06-09T16:16:42Z) - ReF Decompile: Relabeling and Function Call Enhanced Decompile [50.86228893636785]
逆コンパイルの目標は、コンパイルされた低レベルコード(アセンブリコードなど)を高レベルプログラミング言語に変換することである。
このタスクは、脆弱性識別、マルウェア分析、レガシーソフトウェアマイグレーションなど、さまざまなリバースエンジニアリングアプリケーションをサポートする。
論文 参考訳(メタデータ) (2025-02-17T12:38:57Z) - CodeUnlearn: Amortized Zero-Shot Machine Unlearning in Language Models Using Discrete Concept [5.345828824625758]
コードブック機能とスパースオートエンコーダ(SAEs)を用いた新しいアンラーニング手法を提案する。
ボトルネックを利用して、アクティベーション空間を分解し、情報の流れを規制することにより、モデルの性能を無関係なデータに保ちながら、ターゲットとなる情報を効率的に解き放つ。
論文 参考訳(メタデータ) (2024-10-08T10:26:22Z) - Revisiting Evolutionary Program Repair via Code Language Model [11.711739409758476]
本稿では,多目的進化アルゴリズムをCLMと統合し,Javaプロジェクトのマルチロケーションバグを修正するARJA-CLMを提案する。
また,提案手法は,CLMが候補文を生成するための,アクセス可能なフィールドとメソッドに関する追加情報により,プロンプトを充実させる。
論文 参考訳(メタデータ) (2024-08-20T01:57:45Z) - MemLLM: Finetuning LLMs to Use An Explicit Read-Write Memory [49.96019697955383]
本稿では,構造化および明示的な読み書きメモリモジュールを統合することで,大規模言語モデル(LLM)の拡張手法であるMemLLMを紹介する。
実験の結果, 言語モデリング, 特に知識集約型タスクにおいて, MemLLMはLLMの性能と解釈可能性を向上させることが示唆された。
論文 参考訳(メタデータ) (2024-04-17T18:13:16Z) - Online Adaptation of Language Models with a Memory of Amortized Contexts [82.02369596879817]
MAC(Memory of Amortized Contexts)は、大規模言語モデルのための効率的かつ効果的なオンライン適応フレームワークである。
MACとMACを組み合わせれば,検索の高速化など,一般的な代替手段の性能が向上することを示す。
論文 参考訳(メタデータ) (2024-03-07T08:34:57Z) - RET-LLM: Towards a General Read-Write Memory for Large Language Models [53.288356721954514]
RET-LLMは、大規模な言語モデルに一般的な読み書きメモリユニットを装備する新しいフレームワークである。
デビッドソンのセマンティクス理論に触発され、三重項の形で知識を抽出し保存する。
本フレームワークは,時間に基づく質問応答タスクの処理において,堅牢な性能を示す。
論文 参考訳(メタデータ) (2023-05-23T17:53:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。