論文の概要: Rebuilding ROME : Resolving Model Collapse during Sequential Model Editing
- arxiv url: http://arxiv.org/abs/2403.07175v2
- Date: Tue, 16 Apr 2024 17:32:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 22:36:28.826540
- Title: Rebuilding ROME : Resolving Model Collapse during Sequential Model Editing
- Title(参考訳): ROMEの再構築 : 逐次モデル編集におけるモデル崩壊の解消
- Authors: Akshat Gupta, Sidharth Baskaran, Gopala Anumanchipalli,
- Abstract要約: Rank-One Model Editing (ROME) の実装において,編集の無効化は不規則な成果であることを示す。
我々は、r-ROME と呼ばれるより安定した実装 ROME を提供し、r-ROME で大規模な逐次編集を行う場合、モデル崩壊はもはや観測されないことを示す。
- 参考スコア(独自算出の注目度): 2.569159339315845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work using Rank-One Model Editing (ROME), a popular model editing method, has shown that there are certain facts that the algorithm is unable to edit without breaking the model. Such edits have previously been called disabling edits. These disabling edits cause immediate model collapse and limits the use of ROME for sequential editing. In this paper, we show that disabling edits are an artifact of irregularities in the implementation of ROME. With this paper, we provide a more stable implementation ROME, which we call r-ROME and show that model collapse is no longer observed when making large scale sequential edits with r-ROME, while further improving generalization and locality of model editing compared to the original implementation of ROME. We also provide a detailed mathematical explanation of the reason behind disabling edits.
- Abstract(参考訳): 近年,一般的なモデル編集手法であるRanc-One Model Editing (ROME) を用いた研究は,アルゴリズムがモデルを壊さずに編集できない事実があることを実証している。
このような編集は以前は「無効な編集」と呼ばれていた。
これらの無効な編集は、即座にモデルが崩壊し、逐次編集にROMEの使用を制限する。
本稿では,ROMEの実装において,編集の無効化は不規則な成果であることを示す。
本稿では、r-ROMEと呼ばれるROMEのより安定した実装を提供し、r-ROMEで大規模な逐次編集を行う場合、モデル崩壊はもはや観測されないことを示すとともに、ROMEのオリジナルの実装と比較してモデル編集の一般化と局所性をさらに向上させる。
また、編集を無効にする理由を数学的に詳細に説明する。
関連論文リスト
- Consecutive Model Editing with Batch alongside HooK Layers [59.673084839708224]
COMEBA-HK は連続およびバッチをサポートするモデル編集方法である。
重みを更新したいくつかのフック層を格納するためには、少量しか必要としないため、メモリフレンドリーである。
論文 参考訳(メタデータ) (2024-03-08T14:07:44Z) - The Butterfly Effect of Model Editing: Few Edits Can Trigger Large Language Models Collapse [58.0132400208411]
単一の編集でさえモデル崩壊を引き起こし、様々なベンチマークタスクで大幅なパフォーマンス低下を示す。
編集後の大規模言語モデルのベンチマークは、過激な時間とリソース集約である。
提案手法は,下流タスク性能と強い相関を示す広範な実験により検証され,サロゲート指標としてパープレキシティを用いる。
論文 参考訳(メタデータ) (2024-02-15T01:50:38Z) - Model Editing at Scale leads to Gradual and Catastrophic Forgetting [2.887477629420772]
本稿では,ROMEとMEMITの2つの手法に焦点をあてて,現在のモデル編集手法を大規模に評価する。
モデルが複数の事実と逐次的に編集されるにつれて、以前編集された事実と下流タスクの実行能力を常に忘れていることがわかった。
論文 参考訳(メタデータ) (2024-01-15T03:57:15Z) - Aging with GRACE: Lifelong Model Editing with Discrete Key-Value
Adaptors [53.819805242367345]
本稿では,展開モデルのストリーミングエラーにスポットフィックスを実装した生涯モデル編集手法であるGRACEを提案する。
GRACEはトレーニング済みモデルの潜在空間に新しいマッピングを記述し、モデルの重みを変更することなく、個別にローカルな編集のコードブックを作成する。
T5,BERT,GPTモデルを用いた実験では,非表示入力に一般化しつつ,編集および保持におけるGRACEの最先端性能を示す。
論文 参考訳(メタデータ) (2022-11-20T17:18:22Z) - Memory-Based Model Editing at Scale [102.28475739907498]
既存のモデルエディタは、編集対象のスコープを正確にモデル化するのに苦労する。
SERAC(Retrieval-Augmented Counterfactal Model)を用いた半パラメトリック編集を提案する。
SERACは、編集を明示的なメモリに格納し、必要に応じてベースモデルの予測を変更できるように、それらを推論することを学ぶ。
論文 参考訳(メタデータ) (2022-06-13T23:40:34Z) - Learning to Model Editing Processes [98.11448946134894]
本稿では、反復的にシーケンスを生成するプロセス全体をモデル化し、編集プロセスのモデリングを提案する。
我々は、多段階編集の可能性を記述するための概念的枠組みを構築し、これらの多段階編集に基づいてシーケンスの生成モデルを学ぶことができるニューラルネットワークを記述する。
論文 参考訳(メタデータ) (2022-05-24T21:32:52Z) - Learning Structural Edits via Incremental Tree Transformations [102.64394890816178]
構造化データのインクリメンタルな編集(すなわち「構造的編集」)のための汎用モデルを提案する。
我々の編集者は、反復的にツリー編集(例えば、サブツリーの削除や追加)を生成し、部分的に編集されたデータに適用することを学びます。
提案したエディタを2つのソースコード編集データセットで評価した結果,提案する編集エンコーダでは,従来よりも精度が向上していることがわかった。
論文 参考訳(メタデータ) (2021-01-28T16:11:32Z) - A Structural Model for Contextual Code Changes [20.185486717922615]
部分的に編集されたコードスニペットが与えられた場合、私たちのゴールは、スニペットの残りの部分に対する編集の完了を予測することです。
提案モデルでは,最先端のシーケンシャルモデルよりも28%,編集コードの生成を学習する構文モデルよりも2倍高い精度を実現している。
論文 参考訳(メタデータ) (2020-05-27T07:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。