論文の概要: Dynamic Retriever for In-Context Knowledge Editing via Policy Optimization
- arxiv url: http://arxiv.org/abs/2510.21059v2
- Date: Mon, 27 Oct 2025 00:25:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 13:14:10.639408
- Title: Dynamic Retriever for In-Context Knowledge Editing via Policy Optimization
- Title(参考訳): ポリシー最適化による文脈内知識編集のための動的検索
- Authors: Mahmud Wasif Nafee, Maiqi Jiang, Haipeng Chen, Yanfu Zhang,
- Abstract要約: In-Context Knowledge Editing (DR-IKE) のための動的検索手法を提案する。
DR-IKEは、BERTレトリバーをREINFORCEでトレーニングし、報酬を編集してデモをランク付けする軽量フレームワークである。
編集成功率を最大17.1%改善し、レイテンシを41.6%削減し、無関係なクエリの精度を維持する。
- 参考スコア(独自算出の注目度): 11.338802325779866
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) excel at factual recall yet still propagate stale or incorrect knowledge. In-context knowledge editing offers a gradient-free remedy suitable for black-box APIs, but current editors rely on static demonstration sets chosen by surface-level similarity, leading to two persistent obstacles: (i) a quantity-quality trade-off, and (ii) lack of adaptivity to task difficulty. We address these issues by dynamically selecting supporting demonstrations according to their utility for the edit. We propose Dynamic Retriever for In-Context Knowledge Editing (DR-IKE), a lightweight framework that (1) trains a BERT retriever with REINFORCE to rank demonstrations by editing reward, and (2) employs a learnable threshold to prune low-value examples, shortening the prompt when the edit is easy and expanding it when the task is hard. DR-IKE performs editing without modifying model weights, relying solely on forward passes for compatibility with black-box LLMs. On the COUNTERFACT benchmark, it improves edit success by up to 17.1%, reduces latency by 41.6%, and preserves accuracy on unrelated queries, demonstrating scalable and adaptive knowledge editing. The code is available at https://github.com/mwnafee/DR-IKE .
- Abstract(参考訳): 大規模言語モデル(LLM)は、事実的リコール時に優れているが、いまだに古い知識や誤った知識を伝播している。
コンテキスト内知識編集は、ブラックボックスAPIに適した勾配のない治療法を提供するが、現在のエディタは、表面レベルの類似性によって選択された静的なデモセットに依存しており、2つの永続的な障害をもたらす。
一 質のトレードオフ、及び
(二)課題難易度に適応性の欠如。
これらの課題に対処するために、編集ユーティリティに応じてデモを動的に選択する。
In-Context Knowledge Editing (DR-IKE) は,(1) BERTレトリバーをREINFORCEで訓練し,報酬を編集することでデモのランク付けを行う軽量フレームワークである。
DR-IKEは、モデルウェイトを変更することなく編集を行い、ブラックボックスのLCMとの互換性のため、フォワードパスのみに依存する。
COUNTERFACTベンチマークでは、編集成功率を最大17.1%改善し、レイテンシを41.6%削減し、無関係なクエリの精度を維持し、スケーラブルで適応的な知識編集を実証している。
コードはhttps://github.com/mwnafee/DR-IKE で公開されている。
関連論文リスト
- Aligning Language Models with Real-time Knowledge Editing [11.503574001763246]
本稿では,知識編集のための実世界のベンチマークであるCRAFTを紹介する。
合成推論のためのよく設計されたペア編集を特徴とし、エイリアスポータビリティと時間的、常識的な局所性に関するモデルを評価する。
フレキシブルなリアルタイム編集に向けて,多彩な編集拡張と自己適応的ポストアライメント推論を備えた知識編集アライメントの新たなパラダイムであるKEDASを提案する。
論文 参考訳(メタデータ) (2025-08-02T10:25:36Z) - InComeS: Integrating Compression and Selection Mechanisms into LLMs for Efficient Model Editing [86.17245523439514]
In-context Learningは、コンテキストエンコーディングを通じて編集情報を解釈することで、有望な編集方法である。
この方法は、大きな言語モデルの限られたコンテキストウィンドウによって制約される。
編集コンテキストの処理能力を向上させるフレキシブルなフレームワークであるInComeSを提案する。
論文 参考訳(メタデータ) (2025-05-28T09:20:18Z) - ELDER: Enhancing Lifelong Model Editing with Mixture-of-LoRA [55.697627106315004]
大規模言語モデル(LLM)は、特定の知識を効率的に更新し、事実の誤りを避けるためにモデル編集を必要とする。
従来のアプローチでは、元のパラメータを凍結し、知識更新毎に新しいパラメータを個別に割り当てることで、シーケンシャルな編集を管理する。
本稿では,データとアダプタを連続的に関連付ける新しい手法であるELDERを提案する。
論文 参考訳(メタデータ) (2024-08-19T02:27:00Z) - Lifelong Knowledge Editing for LLMs with Retrieval-Augmented Continuous Prompt Learning [30.554641380670315]
本稿では,生涯学習における編集効率と推論効率を向上させるために,ContInuous Prompt lEarning法であるRECIPEを紹介する。
RECIPEはまず、知識文をLLMの入力クエリの埋め込みにプレフィックスした、短くて情報的な連続的なプロンプトに変換する。
さらに、動的しきい値を計算するために仲介役として機能する知識センチネル(KS)を統合する。
我々のレトリバーとプロンプトエンコーダは、信頼性、一般性、局所性といった編集特性を達成するために共同で訓練されている。
論文 参考訳(メタデータ) (2024-05-06T08:52:11Z) - Learning to Edit: Aligning LLMs with Knowledge Editing [101.96620267293731]
本稿では,大規模言語モデルに新たな知識を入力問題に適用する学習 to LTE(Learning to Edit)フレームワークを提案する。
LTEには2段階のプロセスがある: (i) アライメントフェーズ(アライメントフェーズ)。
LTEの知識編集性能の優位性、バッチおよびシーケンシャルな編集の堅牢性、一般的なタスクに対する最小限の干渉、高速な編集速度を示す。
論文 参考訳(メタデータ) (2024-02-19T07:45:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。