論文の概要: REACT: Representation Extraction And Controllable Tuning to Overcome Overfitting in LLM Knowledge Editing
- arxiv url: http://arxiv.org/abs/2505.18933v1
- Date: Sun, 25 May 2025 01:57:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.763468
- Title: REACT: Representation Extraction And Controllable Tuning to Overcome Overfitting in LLM Knowledge Editing
- Title(参考訳): REACT:LLM知識編集におけるオーバーフィッティングを克服するための表現抽出と制御可能なチューニング
- Authors: Haitian Zhong, Yuhuan Liu, Ziyang Xu, Guofan Liu, Qiang Liu, Shu Wu, Zhe Zhao, Liang Wang, Tieniu Tan,
- Abstract要約: 本稿では,正確かつ制御可能な知識編集のためのフレームワークであるREACTを紹介する。
最初の段階では、調整された刺激を用いて、潜在的な事実表現を抽出する。
第2段階では,大小スカラーのベクトルを用いて,制御可能な摂動を隠蔽状態に適用する。
- 参考スコア(独自算出の注目度): 42.89229070245538
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language model editing methods frequently suffer from overfitting, wherein factual updates can propagate beyond their intended scope, overemphasizing the edited target even when it's contextually inappropriate. To address this challenge, we introduce REACT (Representation Extraction And Controllable Tuning), a unified two-phase framework designed for precise and controllable knowledge editing. In the initial phase, we utilize tailored stimuli to extract latent factual representations and apply Principal Component Analysis with a simple learnbale linear transformation to compute a directional "belief shift" vector for each instance. In the second phase, we apply controllable perturbations to hidden states using the obtained vector with a magnitude scalar, gated by a pre-trained classifier that permits edits only when contextually necessary. Relevant experiments on EVOKE benchmarks demonstrate that REACT significantly reduces overfitting across nearly all evaluation metrics, and experiments on COUNTERFACT and MQuAKE shows that our method preserves balanced basic editing performance (reliability, locality, and generality) under diverse editing scenarios.
- Abstract(参考訳): 大規模な言語モデル編集手法は、しばしばオーバーフィッティングに悩まされ、実際の更新は意図した範囲を超えて伝播し、文脈的に不適切である場合でも、編集対象を過度に強調する。
この課題に対処するために,我々はREACT(Representation extract and Controllable Tuning)という,正確かつ制御可能な知識編集用に設計された2段階統合フレームワークを紹介した。
最初の段階では、調整された刺激を用いて、潜在事実表現を抽出し、簡単な学習ベイル線形変換による主成分分析を適用して、各インスタンスの方向の"ビリーフシフト"ベクトルを計算する。
第2フェーズでは、文脈的に必要な場合にのみ編集を許可する事前学習型分類器により、大小のスカラーを持つベクトルを用いて、制御可能な摂動を隠蔽状態に適用する。
EVOKEベンチマークの関連実験は、REACTがほぼすべての評価指標のオーバーフィッティングを著しく低減することを示し、COUNTERFACTとMQuAKEの実験は、我々の手法が様々な編集シナリオの下で基本的な編集性能(信頼性、局所性、一般性)のバランスを保っていることを示している。
関連論文リスト
- Learning Where to Edit Vision Transformers [27.038720045544867]
コンピュータビジョンにおける視覚変換器(ViT)の編集のための位置情報編集手法を提案する。
我々はまず、CutMix拡張データ上でハイパーネットワークをメタラーニングすることで、位置から編集までの課題に対処する。
提案手法を検証するため, サブポピュレーションシフトを導入した編集ベンチマークを構築した。
論文 参考訳(メタデータ) (2024-11-04T10:17:40Z) - Uncovering Overfitting in Large Language Model Editing [35.55260822503773]
編集対象に不均等に高い確率を割り当てる編集オーバーフィット現象を同定し,検討する。
本稿では,新たな知識を振り返って編集されたモデルをガイドするマルチステージ推論制約モジュールを導入する,Learning to Inference (LTI) と呼ばれる新しいプラグイン・アンド・プレイ戦略を提案する。
論文 参考訳(メタデータ) (2024-10-10T11:09:00Z) - The Butterfly Effect of Model Editing: Few Edits Can Trigger Large Language Models Collapse [58.0132400208411]
単一の編集でさえモデル崩壊を引き起こし、様々なベンチマークタスクで大幅なパフォーマンス低下を示す。
編集後の大規模言語モデルのベンチマークは、過激な時間とリソース集約である。
我々は、GPT-3.5を用いて、ハードケースに基づいた新しいデータセット、HardEditを開発した。
論文 参考訳(メタデータ) (2024-02-15T01:50:38Z) - SWEA: Updating Factual Knowledge in Large Language Models via Subject Word Embedding Altering [17.20346072074533]
近年のモデル編集は,大規模言語モデルの少数の知識を効率的に更新する上で有望な手法である。
本稿では,トークンレベルのマッチングによる埋め込みの編集を行うSWEAフレームワークを提案する。
SWEA$oplus$OSのCounterFactデータセットとzsREデータセット上でのSOTA(State-of-the-art)パフォーマンスを実証する。
論文 参考訳(メタデータ) (2024-01-31T13:08:45Z) - Model Editing Harms General Abilities of Large Language Models: Regularization to the Rescue [122.20016030723043]
大規模言語モデル(LLM)におけるモデル編集の副作用を評価する。
分析の結果,モデルの重みを過度に修正したモデル編集によって副作用が生じることが明らかとなった。
これを軽減するために、修正の重み付けを正規化するためにRECTというメソッドが提案されている。
論文 参考訳(メタデータ) (2024-01-09T18:03:15Z) - On the Limits of Evaluating Embodied Agent Model Generalization Using
Validation Sets [101.28658250723804]
本稿では,より広い視野を効果的に活用し,次のステップでナビゲーションや操作を行うかを選択するモジュールによるトランスフォーマーモデルの拡張実験を行う。
提案したモジュールは改良され,実際に,一般的なベンチマークデータセットであるALFREDの未確認検証セット上での最先端のパフォーマンスが向上した。
この結果は、機械学習タスクではより広い現象かもしれないが、主にテストスプリットの評価を制限するベンチマークでのみ顕著である、と我々は考えているので強調する。
論文 参考訳(メタデータ) (2022-05-18T23:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。