論文の概要: A Unified Framework for Model Editing
- arxiv url: http://arxiv.org/abs/2403.14236v1
- Date: Thu, 21 Mar 2024 08:54:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 14:57:51.301276
- Title: A Unified Framework for Model Editing
- Title(参考訳): モデル編集のための統一フレームワーク
- Authors: Akshat Gupta, Dev Sajnani, Gopala Anumanchipalli,
- Abstract要約: 我々は、ROMとMEMITを一つの概念的な傘の下にまとめ、同じ目標を最適化する統一フレームワークを提案する。
本研究の目的は,選択したベクトルの表現を保存しつつ,新たな事実情報の表現を記憶することである。
EMMETは, バッチサイズ256までのMEMITと同等のバッチ編集を行えることを示すとともに, EMMETの安定化における課題について議論する。
- 参考スコア(独自算出の注目度): 2.569159339315845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model editing is a growing area focused on updating the knowledge embedded within models. Among the various methodologies, ROME and MEMIT stand out as leading "locate-and-edit" model editing techniques. While MEMIT enables batched editing of memories, ROME is limited to changing one fact at a time. This paper introduces a unifying framework that brings ROME and MEMIT under a single conceptual umbrella, optimizing for the same goal, which we call the "preservation-memorization" objective. This objective aims to preserve the representations of certain selected vectors while memorizing the representations of new factual information. Specifically, ROME optimizes this objective using an equality constraint, whereas MEMIT employs a more flexible least-square constraint. In addition to making batched edits, MEMIT also edits the model at multiple layers. We disentangle the distribution of edits to multiple layers from the optimization objective of MEMIT and show that these edit-distribution algorithms should be considered separate entities worthy of their own line of research. Finally, we present EMMET - an Equality-constrained Mass Model Editing algorithm for Transformers, a new batched memory-editing algorithm. With EMMET, we present a closed form solution for the equality-constrained version of the preservation-memorization objective. We show that EMMET is able to perform batched-edits on par with MEMIT up to a batch-size of 256 and discuss the challenges in stabilizing EMMET. By articulating the "locate-and-edit" model editing algorithms under a simple conceptual framework of "preservation-memorization", we aim to bridge the gap between intuition and mathematics and hope to simplify the journey for future researchers in model editing.
- Abstract(参考訳): モデル編集は、モデルに埋め込まれた知識を更新することに焦点を当てた成長領域である。
様々な手法の中で、ROMEとMEMITは「位置と編集」モデルの編集技術の先駆者として際立っている。
MEMITはメモリのバッチ編集を可能にするが、ROMEは一度に1つの事実を変更することに限定されている。
本稿では,ROMとMEMITを一つの概念的な傘の下にまとめ,同じ目標を最適化する統一フレームワークを提案する。
本研究の目的は,選択したベクトルの表現を保存しつつ,新たな事実情報の表現を記憶することである。
具体的には、ROMEはこの目的を等式制約を使って最適化するが、MEMITはより柔軟な最小二乗制約を用いる。
バッチ編集に加えて、MEMITは複数のレイヤでモデルを編集する。
我々は,MEMITの最適化目標から,編集の分布を複数の層に分散させ,これらの編集配信アルゴリズムは,それぞれの研究系列に相応しい別個のエンティティであるべきであることを示す。
最後に,EMMET(Equality-Constrained Mass Model Editing Algorithm for Transformers)を提案する。
EMMETでは,保存記憶目標の等価性制約版に対する閉形式解が提示される。
EMMETは,MEMITと同等の大きさのバッチ編集を256まで行うことができ,EMMETの安定化の課題について論じる。
モデル編集アルゴリズムを「保存記憶」という単純な概念的枠組みで記述することにより、直観と数学のギャップを埋め、将来のモデル編集における研究者の旅を簡素化することを目指す。
関連論文リスト
- Is Bigger Edit Batch Size Always Better? -- An Empirical Study on Model Editing with Llama-3 [2.569159339315845]
本研究では,最新の大言語モデルであるLlama-3に着目したターゲットモデル編集分析を行う。
最大4096個の編集を対象とする評価により,最も効果的な編集層を同定する。
論文 参考訳(メタデータ) (2024-05-01T17:50:37Z) - Consecutive Model Editing with Batch alongside HooK Layers [59.673084839708224]
COMEBA-HK は連続およびバッチをサポートするモデル編集方法である。
重みを更新したいくつかのフック層を格納するためには、少量しか必要としないため、メモリフレンドリーである。
論文 参考訳(メタデータ) (2024-03-08T14:07:44Z) - Scale-Invariant Gradient Aggregation for Constrained Multi-Objective
Reinforcement Learning [14.469211624761238]
制約付き多目的グラディエントアグリゲータ(CoMOGA)という制約付きMORLアルゴリズムを提案する。
複数の目的と制約を同時に扱うことの難しさを認識し、CoMOGAは元のCMORL問題を制約付き最適化問題に緩和する。
提案手法は,事前定義された制約を満たすことなく,局所的なパレート最適ポリシーに収束することを示す。
論文 参考訳(メタデータ) (2024-03-01T04:57:13Z) - Double Duality: Variational Primal-Dual Policy Optimization for
Constrained Reinforcement Learning [132.7040981721302]
本研究では,訪問尺度の凸関数を最小化することを目的として,制約付き凸決定プロセス(MDP)について検討する。
制約付き凸MDPの設計アルゴリズムは、大きな状態空間を扱うなど、いくつかの課題に直面している。
論文 参考訳(メタデータ) (2024-02-16T16:35:18Z) - Aligner: One Global Token is Worth Millions of Parameters When Aligning
Large Language Models [72.26732961610557]
私たちは小説『アリグナー』を紹介します。
マルチビリオンパラメータサイズ大言語モデル(LLM)の整列のためのPEFT法
Alignerは、数百万のパラメータを必要とするLoRAのような最先端のLLM適応手法に対して、相容れない性能を保てることを示す。
論文 参考訳(メタデータ) (2023-12-09T08:25:55Z) - Object-aware Inversion and Reassembly for Image Editing [61.19822563737121]
オブジェクトレベルのきめ細かい編集を可能にするために,オブジェクト認識型インバージョンと再アセンブリ(OIR)を提案する。
画像の編集時に各編集ペアに対して最適な反転ステップを見つけるために,検索基準を用いる。
本手法は,オブジェクトの形状,色,材料,カテゴリなどの編集において,特に多目的編集シナリオにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-18T17:59:02Z) - Emptying the Ocean with a Spoon: Should We Edit Models? [8.545919917068273]
LLM世代における事実誤りを訂正する手段として,最近普及した直接モデル編集手法を疑問視する。
モデル編集は、より明確な目的を追求する3つの類似しているが異なるアプローチと対比する。
論文 参考訳(メタデータ) (2023-10-18T13:38:03Z) - Editing Large Language Models: Problems, Methods, and Opportunities [51.903537096207]
本稿では, LLMのモデル編集に関わる問題, 方法, 機会を深く探究する。
本稿では,モデル編集に関わるタスク定義と課題の概観と,現在処理中の最も進歩的な手法の詳細な実証分析について述べる。
本研究の目的は,各編集手法の有効性と実現可能性に関する貴重な知見を提供することであり,特定のタスクやコンテキストに対して,最も適切な方法の選択に関する情報決定を行う上で,コミュニティを支援することである。
論文 参考訳(メタデータ) (2023-05-22T16:00:00Z) - MEAformer: Multi-modal Entity Alignment Transformer for Meta Modality
Hybrid [40.745848169903105]
マルチモーダル・エンティティ・アライメント(MMEA)は、異なる知識グラフにまたがる同一のエンティティを発見することを目的としている。
MMEAアルゴリズムはマルチモーダル実体表現のためのKGレベルのモダリティ融合戦略に依存している。
本稿ではメタモダリティハイブリッドのためのマルチモーダルエンティティアライメントトランスであるMEAformerを紹介する。
論文 参考訳(メタデータ) (2022-12-29T20:49:58Z) - Slimmable Domain Adaptation [112.19652651687402]
重み付けモデルバンクを用いて、ドメイン間の一般化を改善するためのシンプルなフレームワーク、Slimmable Domain Adaptationを導入する。
私たちのフレームワークは、他の競合するアプローチを、複数のベンチマークにおいて非常に大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-06-14T06:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。