論文の概要: In-Context Editing: Learning Knowledge from Self-Induced Distributions
- arxiv url: http://arxiv.org/abs/2406.11194v2
- Date: Thu, 03 Oct 2024 15:13:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-04 23:30:30.512729
- Title: In-Context Editing: Learning Knowledge from Self-Induced Distributions
- Title(参考訳): 文脈編集:自己誘導分布から知識を学ぶ
- Authors: Siyuan Qi, Bangcheng Yang, Kailin Jiang, Xiaobo Wang, Jiaqi Li, Yifan Zhong, Yaodong Yang, Zilong Zheng,
- Abstract要約: 本研究では,1ホットターゲットではなくコンテキスト分布を最適化するために,Consistent In-Context Editing (ICE)を導入する。
ICEは、勾配に基づくチューニング手法の堅牢性と有効性を向上し、モデルの整合性を維持するのを防ぐ。
我々は、知識編集の4つの重要な側面、すなわち正確性、局所性、一般化、言語的品質を分析し、その利点を実証する。
- 参考スコア(独自算出の注目度): 29.10148782152867
- License:
- Abstract: In scenarios where language models must incorporate new information efficiently without extensive retraining, traditional fine-tuning methods are prone to overfitting, degraded generalization, and unnatural language generation. To address these limitations, we introduce Consistent In-Context Editing (ICE), a novel approach leveraging the model's in-context learning capability to optimize toward a contextual distribution rather than a one-hot target. ICE introduces a simple yet effective optimization framework for the model to internalize new knowledge by aligning its output distributions with and without additional context. This method enhances the robustness and effectiveness of gradient-based tuning methods, preventing overfitting and preserving the model's integrity. We analyze ICE across four critical aspects of knowledge editing: accuracy, locality, generalization, and linguistic quality, demonstrating its advantages. Experimental results confirm the effectiveness of ICE and demonstrate its potential for continual editing, ensuring that the integrity of the model is preserved while updating information.
- Abstract(参考訳): 言語モデルが大規模なリトレーニングを伴わずに新しい情報を効率的に組み込む必要があるシナリオでは、従来の微調整手法は過度に適合し、一般化が低下し、不自然な言語を生成する傾向にある。
このような制約に対処するため,1ホットターゲットではなくコンテキスト分布に最適化するために,モデルのコンテキスト内学習機能を活用した新しいアプローチであるConsistent In-Context Editing (ICE)を導入する。
ICEは、出力分布を追加のコンテキストなしで整列させることで、新たな知識を内部化するためのモデルのための、シンプルで効果的な最適化フレームワークを導入します。
この方法は、勾配に基づくチューニング手法の堅牢性と有効性を向上し、モデルの整合性を過度に調整し、保存するのを防ぐ。
我々は、知識編集の4つの重要な側面、すなわち正確性、局所性、一般化、言語的品質を分析し、その利点を実証する。
実験の結果、ICEの有効性を確認し、継続編集の可能性を示し、情報を更新しながらモデルの整合性が維持されることを確認した。
関連論文リスト
- Edit Once, Update Everywhere: A Simple Framework for Cross-Lingual Knowledge Synchronization in LLMs [60.12222055772508]
我々は、シンプルで実用的なSOTAレシピであるクロス言語知識民主主義編集(X-KDE)を提案する。
X-KDEは、支配的な言語から他の言語への知識の伝達を効果的に行うように設計されている。
Bi-ZsRE と MzsRE のベンチマーク実験により、X-KDE は言語間性能を大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-02-20T15:32:31Z) - Improving Low-Resource Sequence Labeling with Knowledge Fusion and Contextual Label Explanations [20.175880825346397]
低リソースでドメイン固有のシナリオにおいて、シーケンスラベリングは依然として重要な課題である。
本稿では,LLMに基づく知識強化ワークフローと,リッチかつ効率的な抽出のための知識融合モデルを組み合わせた新しいフレームワークを提案する。
提案手法は最先端の性能を実現し,低リソース環境がもたらす課題に効果的に対処する。
論文 参考訳(メタデータ) (2025-01-31T12:39:28Z) - Defeasible Visual Entailment: Benchmark, Evaluator, and Reward-Driven Optimization [19.32714581384729]
我々はDVE(Dedeasible Visual Entailment)と呼ばれる新しいタスクを導入する。
ゴールは、追加更新に基づいて、画像前提とテキスト仮説の間の細部の関係を修正できるようにすることである。
高いレベルでは、DVEはモデルの初期解釈を洗練させ、様々なアプリケーションにおける精度と信頼性を向上させる。
論文 参考訳(メタデータ) (2024-12-19T02:38:31Z) - Self-Improvement in Language Models: The Sharpening Mechanism [70.9248553790022]
我々は、レンズを通して自己改善の能力について、新たな視点を提供する。
言語モデルは、正しい応答を生成する場合よりも、応答品質の検証が優れているという観察に感銘を受けて、後学習において、モデル自体を検証対象として、自己改善を形式化する。
SFTとRLHFに基づく自己改善アルゴリズムの2つの自然ファミリーを解析する。
論文 参考訳(メタデータ) (2024-12-02T20:24:17Z) - Better Call SAUL: Fluent and Consistent Language Model Editing with Generation Regularization [48.07144492109635]
大規模な言語モデルは定期的に更新する必要がある。
モデル編集は、新しいデータとは無関係な知識にも影響する可能性があるため、難しい。
文結合と拡張ランダムな事実を連成して生成規則化を行うモデル編集手法であるSAULを提案する。
論文 参考訳(メタデータ) (2024-10-03T12:28:13Z) - DiPT: Enhancing LLM reasoning through diversified perspective-taking [27.443341091299168]
既存の言語モデル推論の改善作業は、通常、単一のソリューションパスを探索する。
本稿では,社会学における視点学習にヒントを得て,新しいアプローチであるDiPTを紹介する。
これにより、モデルは問題のコンテキストをより深く理解し、最も効果的なソリューションパスを特定することができる。
論文 参考訳(メタデータ) (2024-09-10T06:17:27Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Contrastive Perplexity for Controlled Generation: An Application in
Detoxifying Large Language Models [25.212449683397647]
本稿では,暗黙的な知識編集と制御されたテキスト生成のための微調整LDMのためのコントラスト学習目標の統合について検討する。
自己教師型でモデルのトレーニングを容易にするため,市販のLCMを用いてデータ生成のトレーニングを行う。
論文 参考訳(メタデータ) (2024-01-16T16:49:39Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - NoiER: An Approach for Training more Reliable Fine-TunedDownstream Task
Models [54.184609286094044]
補助モデルと付加データなしで問題を解くための学習パラダイムとして,ノイズエントロピー正規化(NoiER)を提案する。
提案手法は,従来の微調整モデルと比較して平均55%改善した。
論文 参考訳(メタデータ) (2021-08-29T06:58:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。