論文の概要: Robustness of edited neural networks
- arxiv url: http://arxiv.org/abs/2303.00046v1
- Date: Tue, 28 Feb 2023 19:41:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 16:54:22.382179
- Title: Robustness of edited neural networks
- Title(参考訳): 編集ニューラルネットワークのロバスト性
- Authors: Davis Brown, Charles Godfrey, Cody Nizinski, Jonathan Tu, Henry Kvinge
- Abstract要約: モデル編集がモデルの一般的なロバスト性や、編集対象の特定の動作のロバスト性にどのように影響するかを検討する。
編集は一般的な堅牢性を低下させる傾向があるが、劣化の程度は選択した編集アルゴリズムに依存する。
これらの観測により、我々は2つの新しいモデル編集アルゴリズム、直接低ランクモデル編集と1層(1-LI)を導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Successful deployment in uncertain, real-world environments requires that
deep learning models can be efficiently and reliably modified in order to adapt
to unexpected issues. However, the current trend toward ever-larger models
makes standard retraining procedures an ever-more expensive burden. For this
reason, there is growing interest in model editing, which enables
computationally inexpensive, interpretable, post-hoc model modifications. While
many model editing techniques are promising, research on the properties of
edited models is largely limited to evaluation of validation accuracy. The
robustness of edited models is an important and yet mostly unexplored topic. In
this paper, we employ recently developed techniques from the field of deep
learning robustness to investigate both how model editing affects the general
robustness of a model, as well as the robustness of the specific behavior
targeted by the edit. We find that edits tend to reduce general robustness, but
that the degree of degradation depends on the editing algorithm chosen. In
particular, robustness is best preserved by more constrained techniques that
modify less of the model. Motivated by these observations, we introduce two new
model editing algorithms, direct low-rank model editing and 1-layer
interpolation (1-LI), which each exhibit strong generalization performance.
- Abstract(参考訳): 不確実で現実的な環境でのデプロイメントの成功には、予期しない問題に適応するために、ディープラーニングモデルを効率的かつ確実に修正する必要がある。
しかし、より大規模なモデルへの最近のトレンドにより、標準的な再訓練手順はより高価な負担になる。
このため、計算量的に安価で解釈可能なポストホックなモデル修正を可能にするモデル編集への関心が高まっている。
多くのモデル編集技術は有望であるが、編集モデルの特性に関する研究は検証精度の評価にほとんど制限されている。
編集モデルのロバスト性は重要だが、ほとんど未検討のトピックである。
本稿では,モデル編集がモデルの一般的なロバスト性に与える影響と,編集対象の特定の動作のロバスト性の両方を調査するために,ディープラーニングロバストネスの分野から最近開発された手法を用いる。
編集は一般的な堅牢性を低下させる傾向があるが、劣化の程度は選択した編集アルゴリズムに依存する。
特にロバスト性は、モデルのより少ない変更を行うより制約のある技術によって最もよく保存される。
これらの結果に動機づけられ, 2つのモデル編集アルゴリズム, 直接低ランクモデル編集と1層補間(1-li)を導入し, それぞれ高い一般化性能を示す。
関連論文リスト
- The Missing Piece in Model Editing: A Deep Dive into the Hidden Damage
Brought By Model Editing [31.004793394634817]
大規模言語モデルは、その顕著な効果で多くのタスクに革命をもたらした。
これらのモデルの編集は時代遅れまたは誤った情報の修正に不可欠であり、しばしば隠れた空間におけるリップル効果として知られる複雑な問題を引き起こす。
本稿では, モデルの適応とその後の編集の影響を定量的に評価する, 新たな評価手法を提案することによって, この科学的課題に対処する。
さらに,このリップル効果を緩和するモデル編集手法であるSelective Outlier Re-Editing Approach(SORA)を導入する。
論文 参考訳(メタデータ) (2024-03-12T17:04:28Z) - Consecutive Model Editing with Batch alongside HooK Layers [63.230544803136816]
COMEBA-HK は連続およびバッチをサポートするモデル編集方法である。
重みを更新したいくつかのフック層を格納するためには、少量しか必要としないため、メモリフレンドリーである。
論文 参考訳(メタデータ) (2024-03-08T14:07:44Z) - The Butterfly Effect of Model Editing: Few Edits Can Trigger Large Language Models Collapse [58.0132400208411]
単一の編集でさえモデル崩壊を引き起こし、様々なベンチマークタスクで大幅なパフォーマンス低下を示す。
編集後の大規模言語モデルのベンチマークは、過激な時間とリソース集約である。
提案手法は,下流タスク性能と強い相関を示す広範な実験により検証され,サロゲート指標としてパープレキシティを用いる。
論文 参考訳(メタデータ) (2024-02-15T01:50:38Z) - Model Editing at Scale leads to Gradual and Catastrophic Forgetting [2.887477629420772]
本稿では,ROMEとMEMITの2つの手法に焦点をあてて,現在のモデル編集手法を大規模に評価する。
モデルが複数の事実と逐次的に編集されるにつれて、以前編集された事実と下流タスクの実行能力を常に忘れていることがわかった。
論文 参考訳(メタデータ) (2024-01-15T03:57:15Z) - Model Editing Can Hurt General Abilities of Large Language Models [128.32797540883507]
LLaMA-1 (7B) の編集に特定の方法を用いることで、単一の編集だけで選択された全てのタスクにおいて、大幅な性能低下が0に近づいた。
LLaMA-1 (7B) の編集に特定の方法を用いることで、単一の編集だけで選択された全てのタスクにおいて、大幅な性能低下が0に近づいた。
論文 参考訳(メタデータ) (2024-01-09T18:03:15Z) - Aging with GRACE: Lifelong Model Editing with Discrete Key-Value
Adaptors [53.819805242367345]
本稿では,展開モデルのストリーミングエラーにスポットフィックスを実装した生涯モデル編集手法であるGRACEを提案する。
GRACEはトレーニング済みモデルの潜在空間に新しいマッピングを記述し、モデルの重みを変更することなく、個別にローカルな編集のコードブックを作成する。
T5,BERT,GPTモデルを用いた実験では,非表示入力に一般化しつつ,編集および保持におけるGRACEの最先端性能を示す。
論文 参考訳(メタデータ) (2022-11-20T17:18:22Z) - Memory-Based Model Editing at Scale [102.28475739907498]
既存のモデルエディタは、編集対象のスコープを正確にモデル化するのに苦労する。
SERAC(Retrieval-Augmented Counterfactal Model)を用いた半パラメトリック編集を提案する。
SERACは、編集を明示的なメモリに格納し、必要に応じてベースモデルの予測を変更できるように、それらを推論することを学ぶ。
論文 参考訳(メタデータ) (2022-06-13T23:40:34Z) - Fast Model Editing at Scale [77.69220974621425]
MEND(Gradient Decomposition)を用いたモデルエディタネットワークを提案する。
MENDは、所望の入力出力ペアを使って、訓練済みのモデルに高速で局所的な編集を行う、小さな補助的な編集ネットワークの集合である。
MENDは100億以上のパラメータモデルであっても、1日以内で1つのGPUでトレーニングすることができる。
論文 参考訳(メタデータ) (2021-10-21T17:41:56Z) - A Structural Model for Contextual Code Changes [20.185486717922615]
部分的に編集されたコードスニペットが与えられた場合、私たちのゴールは、スニペットの残りの部分に対する編集の完了を予測することです。
提案モデルでは,最先端のシーケンシャルモデルよりも28%,編集コードの生成を学習する構文モデルよりも2倍高い精度を実現している。
論文 参考訳(メタデータ) (2020-05-27T07:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。