論文の概要: A Unified Framework for Model Editing
- arxiv url: http://arxiv.org/abs/2403.14236v2
- Date: Mon, 22 Apr 2024 17:56:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 23:14:33.793700
- Title: A Unified Framework for Model Editing
- Title(参考訳): モデル編集のための統一フレームワーク
- Authors: Akshat Gupta, Dev Sajnani, Gopala Anumanchipalli,
- Abstract要約: ROME と MEMIT という2つの主要な "位置と編集" モデル編集テクニックを,単一の概念的な傘の下で実現する統一フレームワークを紹介します。
本稿では,新しいバッチメモリ編集アルゴリズムであるTransformers や EMMET に対して,品質制約付きマスモデル編集アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 2.569159339315845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a unifying framework that brings two leading "locate-and-edit" model editing techniques -- ROME and MEMIT -- under a single conceptual umbrella, optimizing for the same goal, which we call the preservation-memorization objective. ROME uses an equality constraint to perform one edit at a time, whereas MEMIT employs a more flexible least-square constraint that allows for batched edits. Following the preservation-memorization objective, we present Equality-constrained Mass Model Editing algorithm for Transformers or EMMET, a new batched memory-editing algorithm that uses a closed-form solution for the equality-constrained version of the preservation-memorization objective. EMMET is a batched-version of ROME and is able to perform batched-edits up to a batch-size of 10,000 with very similar performance to MEMIT across multiple dimensions. With EMMET, we unify and achieve symmetry within the "locate-and-edit" algorithms, allowing batched-editing using both objectives.
- Abstract(参考訳): ROMEとMEMITという2つの主要な「位置と編集」モデル編集技術をひとつの概念的な傘の下に導入する統一フレームワークを導入し、同じ目標を最適化し、保存記憶の目的と呼ぶ。
ROMEは1回に1回の編集を行うために平等制約を使用するが、MEMITはバッチ編集を可能にするより柔軟な最小二乗制約を使用する。
保存記憶の目的に従えば、保存記憶の目的の等質制約版にクローズドフォームソリューションを利用する、トランスフォーマーのための等質制約付きマスモデル編集アルゴリズム(EMMET)や、新しいバッチメモリ編集アルゴリズム(EMMET)を提案する。
EMMET は ROME のバッチ変換であり、バッチ編集を複数の次元にわたる MEMIT と非常によく似た性能で10,000 のバッチサイズまで実行することができる。
EMMETにより、我々は「位置と編集」アルゴリズム内で対称性を統一し、達成し、両方の目的を用いたバッチ編集を可能にする。
関連論文リスト
- Is Bigger Edit Batch Size Always Better? -- An Empirical Study on Model Editing with Llama-3 [2.569159339315845]
本研究では,最新の大言語モデルであるLlama-3に着目したターゲットモデル編集分析を行う。
最大4096個の編集を対象とする評価により,最も効果的な編集層を同定する。
論文 参考訳(メタデータ) (2024-05-01T17:50:37Z) - Consecutive Model Editing with Batch alongside HooK Layers [59.673084839708224]
COMEBA-HK は連続およびバッチをサポートするモデル編集方法である。
重みを更新したいくつかのフック層を格納するためには、少量しか必要としないため、メモリフレンドリーである。
論文 参考訳(メタデータ) (2024-03-08T14:07:44Z) - Scale-Invariant Gradient Aggregation for Constrained Multi-Objective
Reinforcement Learning [14.469211624761238]
制約付き多目的グラディエントアグリゲータ(CoMOGA)という制約付きMORLアルゴリズムを提案する。
複数の目的と制約を同時に扱うことの難しさを認識し、CoMOGAは元のCMORL問題を制約付き最適化問題に緩和する。
提案手法は,事前定義された制約を満たすことなく,局所的なパレート最適ポリシーに収束することを示す。
論文 参考訳(メタデータ) (2024-03-01T04:57:13Z) - Double Duality: Variational Primal-Dual Policy Optimization for
Constrained Reinforcement Learning [132.7040981721302]
本研究では,訪問尺度の凸関数を最小化することを目的として,制約付き凸決定プロセス(MDP)について検討する。
制約付き凸MDPの設計アルゴリズムは、大きな状態空間を扱うなど、いくつかの課題に直面している。
論文 参考訳(メタデータ) (2024-02-16T16:35:18Z) - Aligner: One Global Token is Worth Millions of Parameters When Aligning
Large Language Models [72.26732961610557]
私たちは小説『アリグナー』を紹介します。
マルチビリオンパラメータサイズ大言語モデル(LLM)の整列のためのPEFT法
Alignerは、数百万のパラメータを必要とするLoRAのような最先端のLLM適応手法に対して、相容れない性能を保てることを示す。
論文 参考訳(メタデータ) (2023-12-09T08:25:55Z) - Object-aware Inversion and Reassembly for Image Editing [61.19822563737121]
オブジェクトレベルのきめ細かい編集を可能にするために,オブジェクト認識型インバージョンと再アセンブリ(OIR)を提案する。
画像の編集時に各編集ペアに対して最適な反転ステップを見つけるために,検索基準を用いる。
本手法は,オブジェクトの形状,色,材料,カテゴリなどの編集において,特に多目的編集シナリオにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-18T17:59:02Z) - Emptying the Ocean with a Spoon: Should We Edit Models? [8.545919917068273]
LLM世代における事実誤りを訂正する手段として,最近普及した直接モデル編集手法を疑問視する。
モデル編集は、より明確な目的を追求する3つの類似しているが異なるアプローチと対比する。
論文 参考訳(メタデータ) (2023-10-18T13:38:03Z) - Editing Large Language Models: Problems, Methods, and Opportunities [51.903537096207]
本稿では, LLMのモデル編集に関わる問題, 方法, 機会を深く探究する。
本稿では,モデル編集に関わるタスク定義と課題の概観と,現在処理中の最も進歩的な手法の詳細な実証分析について述べる。
本研究の目的は,各編集手法の有効性と実現可能性に関する貴重な知見を提供することであり,特定のタスクやコンテキストに対して,最も適切な方法の選択に関する情報決定を行う上で,コミュニティを支援することである。
論文 参考訳(メタデータ) (2023-05-22T16:00:00Z) - MEAformer: Multi-modal Entity Alignment Transformer for Meta Modality
Hybrid [40.745848169903105]
マルチモーダル・エンティティ・アライメント(MMEA)は、異なる知識グラフにまたがる同一のエンティティを発見することを目的としている。
MMEAアルゴリズムはマルチモーダル実体表現のためのKGレベルのモダリティ融合戦略に依存している。
本稿ではメタモダリティハイブリッドのためのマルチモーダルエンティティアライメントトランスであるMEAformerを紹介する。
論文 参考訳(メタデータ) (2022-12-29T20:49:58Z) - Slimmable Domain Adaptation [112.19652651687402]
重み付けモデルバンクを用いて、ドメイン間の一般化を改善するためのシンプルなフレームワーク、Slimmable Domain Adaptationを導入する。
私たちのフレームワークは、他の競合するアプローチを、複数のベンチマークにおいて非常に大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-06-14T06:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。