論文の概要: Lightweight Model Editing for LLMs to Correct Deprecated API Recommendations
- arxiv url: http://arxiv.org/abs/2511.21022v1
- Date: Wed, 26 Nov 2025 03:36:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.950154
- Title: Lightweight Model Editing for LLMs to Correct Deprecated API Recommendations
- Title(参考訳): LLMの軽量モデル編集による非推奨APIレコメンデーションの修正
- Authors: Guancheng Lin, Xiao Yu, Jacky Keung, Xing Hu, Xin Xia, Alex X. Liu,
- Abstract要約: 事前訓練された大規模言語モデル(LLM)は、コード補完タスクにおいて強力なパフォーマンスを示している。
LLMは、将来のサードパーティライブラリではサポートされない非推奨のAPIを頻繁に生成する。
本稿では,AdaLoRA-Lを提案する。AdaLoRA-Lは"共通APIレイヤ"(すべてのAPIで高い重要性を持ち,一般的な知識を保存し,編集から除外されたレイヤ)を定義し,編集を"特定APIレイヤ"に限定する。
実験の結果、AdaLoRA-Lは他の評価指標と同等の性能を維持しながら、比例性を大幅に改善することが示された。
- 参考スコア(独自算出の注目度): 15.586818028794942
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-trained or fine-tuned on large code corpora, Large Language Models (LLMs) have demonstrated strong performance in code completion tasks. However, their embedded knowledge is constrained by the timeliness of training data, which often includes code using deprecated APIs. Consequently, LLMs frequently generate deprecated APIs that will no longer be supported in future versions of third-party libraries. While retraining LLMs on updated codebases could refresh their API knowledge, this approach is computationally expensive. Recently, lightweight model editing methods have emerged to efficiently correct specific knowledge in LLMs. However, it remains unclear whether these methods can effectively update deprecated API knowledge and enable edited models to generate up-to-date APIs. To address this gap, we conduct the first systematic study applying 10 state-of-the-art model editing techniques to update deprecated API knowledge in three LLMs: Qwen2.5-Coder, StarCoder2, and DeepSeek-Coder. We introduce EDAPIBench, a dedicated benchmark featuring over 70 deprecated APIs from 8 popular Python libraries, with more than 3,000 editing instances. Our results show that the parameter-efficient fine-tuning method AdaLoRA achieves the best performance in enabling edited models to generate correct, up-to-date APIs, but falls short in Specificity (i.e., the editing influences untargeted knowledge). To resolve this, we propose AdaLoRA-L, which defines "Common API Layers" (layers within the LLMs with high importance across all APIs, storing general knowledge and excluded from editing) and restricts edits exclusively to "Specific API Layers" (layers with high importance only for the target API, storing the API-specific knowledge). Experimental results demonstrate that AdaLoRA-L significantly improves Specificity while maintaining comparable performance across other evaluation metrics.
- Abstract(参考訳): 大規模コードコーパス、LLM(Large Language Models)の事前訓練または微調整は、コード補完タスクにおいて強力なパフォーマンスを示している。
しかしながら、その組み込み知識は、非推奨のAPIを使用したコードを含む、トレーニングデータのタイムラインによって制限されている。
その結果、LLMは非推奨のAPIを頻繁に生成し、将来のサードパーティライブラリではサポートされなくなる。
更新されたコードベースでLLMを再トレーニングすることは、APIの知識を更新する可能性があるが、このアプローチは計算的に高価である。
近年,LLMの特定の知識を効率よく補正するために,軽量なモデル編集手法が出現している。
しかし、これらのメソッドが非推奨のAPI知識を効果的に更新し、編集されたモデルが最新のAPIを生成することができるかどうかは不明だ。
このギャップに対処するため,まず10種類の最先端モデル編集技術を適用し,非推奨のAPI知識を3つのLLM(Qwen2.5-Coder,StarCoder2,DeepSeek-Coder)で更新する。
EDAPIBenchは8つの人気のあるPythonライブラリから70以上の非推奨APIを特徴とする専用ベンチマークで、3,000以上の編集インスタンスがある。
この結果から,パラメータ効率のよい微調整手法であるAdaLoRAは,編集されたモデルに対して,最新のAPIを生成可能であるが,特異性に乏しい(すなわち,未学習の知識に影響を及ぼす)ことが示唆された。
この問題を解決するために、AdaLoRA-Lを提案する。これは"Common API Layers"(すべてのAPIにおいて高い重要性を持ち、一般的な知識を保存し、編集から除外されたレイヤ)を定義し、編集を"Specific API Layers"(ターゲットAPIにのみ重要で、API固有の知識を格納するレイヤ)に限定する。
実験の結果、AdaLoRA-Lは他の評価指標と同等の性能を維持しながら、比例性を大幅に改善することが示された。
関連論文リスト
- When LLMs Meet API Documentation: Can Retrieval Augmentation Aid Code Generation Just as It Helps Developers? [10.204379646375182]
Retrieval-augmented Generation (RAG) は、学習前の知識を超えて、大規模言語モデルの能力(LLM)を拡大する能力を示している。
検索と生成のための新たな知識として,あまり一般的でないAPIライブラリのドキュメンテーションを使用することの有効性に影響を与える要因について検討する。
論文 参考訳(メタデータ) (2025-03-19T14:08:47Z) - ExploraCoder: Advancing code generation for multiple unseen APIs via planning and chained exploration [70.26807758443675]
ExploraCoderはトレーニング不要のフレームワークで、大規模な言語モデルにコードソリューションで見えないAPIを呼び出す権限を与える。
実験の結果、ExploreaCoderは、事前のAPI知識に欠けるモデルのパフォーマンスを大幅に改善することが示された。
論文 参考訳(メタデータ) (2024-12-06T19:00:15Z) - A Comprehensive Framework for Evaluating API-oriented Code Generation in Large Language Models [14.665460257371164]
GitHub CopilotやChatGPTのような大規模言語モデル(LLM)は、コード生成の強力なツールとして登場した。
API指向コード生成におけるLLMの機能を評価するために設計されたフレームワークであるAutoAPIEvalを提案する。
論文 参考訳(メタデータ) (2024-09-23T17:22:09Z) - LLMs Meet Library Evolution: Evaluating Deprecated API Usage in LLM-based Code Completion [13.633501449498402]
APIの使用を分解することは、大規模言語モデル(LLM)ベースのコード補完の問題である。
この研究には、7つの高度なLLM、人気のあるPythonライブラリの145のAPIマッピング、28125の補完プロンプトが含まれていた。
本稿では,REPLACEAPIとINSERTPROMPTの2つの軽量固定手法を提案する。
論文 参考訳(メタデータ) (2024-06-14T08:44:10Z) - SoAy: A Solution-based LLM API-using Methodology for Academic Information Seeking [59.59923482238048]
SoAyは学術情報検索のためのソリューションベースのLLM API利用方法論である。
ソリューションが事前に構築されたAPI呼び出しシーケンスである場合、推論メソッドとしてソリューションを備えたコードを使用する。
その結果、最先端のLLM APIベースのベースラインと比較して34.58-75.99%のパフォーマンス改善が見られた。
論文 参考訳(メタデータ) (2024-05-24T02:44:14Z) - Private-Library-Oriented Code Generation with Large Language Models [52.73999698194344]
本稿では,大規模言語モデル(LLM)をプライベートライブラリのコード生成に活用することに焦点を当てる。
プログラマがプライベートコードを書く過程をエミュレートする新しいフレームワークを提案する。
TorchDataEval、TorchDataComplexEval、MonkeyEval、BeatNumEvalの4つのプライベートライブラリベンチマークを作成しました。
論文 参考訳(メタデータ) (2023-07-28T07:43:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。