論文の概要: In-Context Editing: Learning Knowledge from Self-Induced Distributions
- arxiv url: http://arxiv.org/abs/2406.11194v1
- Date: Mon, 17 Jun 2024 04:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 18:24:06.812498
- Title: In-Context Editing: Learning Knowledge from Self-Induced Distributions
- Title(参考訳): 文脈編集:自己誘導分布から知識を学ぶ
- Authors: Siyuan Qi, Bangcheng Yang, Kailin Jiang, Xiaobo Wang, Jiaqi Li, Yifan Zhong, Yaodong Yang, Zilong Zheng,
- Abstract要約: Consistent In-Context Editing (ICE) は知識編集シナリオにおける微調整言語モデルに対する新しいアプローチである。
ICEは、モデルのコンテキスト内学習機能を使用して、ワンホットターゲットではなく、コンテキスト分布にチューニングする。
我々は、知識編集の4つの重要な側面、すなわち正確性、局所性、一般化、言語的品質について、ICEの分析的な洞察を提供する。
- 参考スコア(独自算出の注目度): 29.10148782152867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The existing fine-tuning paradigm for language models is brittle in knowledge editing scenarios, where the model must incorporate new information without extensive retraining. This brittleness often results in overfitting, reduced performance, and unnatural language generation. To address this, we propose Consistent In-Context Editing (ICE), a novel approach that leverages the model's in-context learning capability to tune toward a contextual distribution rather than a one-hot target. ICE introduces a straightforward optimization framework that includes both a target and a procedure, enhancing the robustness and effectiveness of gradient-based tuning methods. We provide analytical insights into ICE across four critical aspects of knowledge editing: accuracy, locality, generalization, and linguistic quality, showing its advantages. Experimental results across four datasets confirm the effectiveness of ICE and demonstrate its potential for continual editing, ensuring that updated information is incorporated while preserving the integrity of the model.
- Abstract(参考訳): 言語モデルのための既存の微調整パラダイムは知識編集のシナリオでは脆弱であり、モデルには広範な再訓練なしに新しい情報を組み込まなければならない。
この脆さは、しばしば過度に適合し、性能を低下させ、不自然な言語生成をもたらす。
そこで本研究では,このモデルのコンテキスト内学習機能を活用して,ワンホットターゲットではなくコンテキスト分布に調整する新しい手法であるConsistent In-Context Editing (ICE)を提案する。
ICEは、ターゲットとプロシージャの両方を含む単純な最適化フレームワークを導入し、勾配に基づくチューニング手法の堅牢性と有効性を高める。
知識編集における4つの重要な側面、すなわち正確性、局所性、一般化、言語的品質を分析し、その利点を示す。
4つのデータセットで実験した結果、ICEの有効性を確認し、継続編集の可能性を示し、モデルの完全性を保ちながら更新情報が組み込まれることを保証する。
関連論文リスト
- Better Call SAUL: Fluent and Consistent Language Model Editing with Generation Regularization [48.07144492109635]
大規模な言語モデルは定期的に更新する必要がある。
モデル編集は、新しいデータとは無関係な知識にも影響する可能性があるため、難しい。
文結合と拡張ランダムな事実を連成して生成規則化を行うモデル編集手法であるSAULを提案する。
論文 参考訳(メタデータ) (2024-10-03T12:28:13Z) - DiPT: Enhancing LLM reasoning through diversified perspective-taking [27.443341091299168]
既存の言語モデル推論の改善作業は、通常、単一のソリューションパスを探索する。
本稿では,社会学における視点学習にヒントを得て,新しいアプローチであるDiPTを紹介する。
これにより、モデルは問題のコンテキストをより深く理解し、最も効果的なソリューションパスを特定することができる。
論文 参考訳(メタデータ) (2024-09-10T06:17:27Z) - Enhancing Robustness of Vision-Language Models through Orthogonality Learning and Self-Regularization [77.62516752323207]
そこで本研究では,事前訓練した重みを効率よく微調整する直交微調整法を導入し,頑健さと一般化の強化を実現した。
自己正規化戦略は、OrthSRと呼ばれるVLMのゼロショット一般化の観点から安定性を維持するためにさらに活用される。
筆者らはCLIPとCoOpを再検討し,少数の画像のクラスフィシエーションシナリオにおけるモデルの改善を効果的に行う。
論文 参考訳(メタデータ) (2024-07-11T10:35:53Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [71.85120354973073]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Contrastive Perplexity for Controlled Generation: An Application in
Detoxifying Large Language Models [25.212449683397647]
本稿では,暗黙的な知識編集と制御されたテキスト生成のための微調整LDMのためのコントラスト学習目標の統合について検討する。
自己教師型でモデルのトレーニングを容易にするため,市販のLCMを用いてデータ生成のトレーニングを行う。
論文 参考訳(メタデータ) (2024-01-16T16:49:39Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Integrating Prior Knowledge in Post-hoc Explanations [3.6066164404432883]
ポストホック解釈可能性法は、訓練された決定モデルの予測をユーザーに説明することを目的としている。
本稿では,事前知識を解釈可能性の目標に明示的に統合するコスト関数を提案する。
本稿では,KICE(Knowledge Integration in Counterfactual Explanation)と呼ばれる新しい解釈可能性手法を提案する。
論文 参考訳(メタデータ) (2022-04-25T13:09:53Z) - NoiER: An Approach for Training more Reliable Fine-TunedDownstream Task
Models [54.184609286094044]
補助モデルと付加データなしで問題を解くための学習パラダイムとして,ノイズエントロピー正規化(NoiER)を提案する。
提案手法は,従来の微調整モデルと比較して平均55%改善した。
論文 参考訳(メタデータ) (2021-08-29T06:58:28Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。