論文の概要: Backward Compatibility During Data Updates by Weight Interpolation
- arxiv url: http://arxiv.org/abs/2301.10546v1
- Date: Wed, 25 Jan 2023 12:23:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-26 15:20:05.182977
- Title: Backward Compatibility During Data Updates by Weight Interpolation
- Title(参考訳): 重み補間によるデータ更新時の後方互換性
- Authors: Raphael Schumann and Elman Mansimov and Yi-An Lai and Nikolaos Pappas
and Xibin Gao and Yi Zhang
- Abstract要約: データ更新時の回帰問題について検討し、後方対応型重み補間法(BCWI)を提案する。
BCWIは、新しいモデルの精度の向上を犠牲にすることなく、負のフリップを減らす。
また,複数の新モデルの重み付けにおける重み付けと平均化による負のフリップの低減についても検討する。
- 参考スコア(独自算出の注目度): 17.502410289568587
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backward compatibility of model predictions is a desired property when
updating a machine learning driven application. It allows to seamlessly improve
the underlying model without introducing regression bugs. In classification
tasks these bugs occur in the form of negative flips. This means an instance
that was correctly classified by the old model is now classified incorrectly by
the updated model. This has direct negative impact on the user experience of
such systems e.g. a frequently used voice assistant query is suddenly
misclassified. A common reason to update the model is when new training data
becomes available and needs to be incorporated. Simply retraining the model
with the updated data introduces the unwanted negative flips. We study the
problem of regression during data updates and propose Backward Compatible
Weight Interpolation (BCWI). This method interpolates between the weights of
the old and new model and we show in extensive experiments that it reduces
negative flips without sacrificing the improved accuracy of the new model. BCWI
is straight forward to implement and does not increase inference cost. We also
explore the use of importance weighting during interpolation and averaging the
weights of multiple new models in order to further reduce negative flips.
- Abstract(参考訳): モデル予測の後方互換性は、機械学習駆動アプリケーションの更新時に望ましい特性である。
回帰バグを導入することなく、基盤となるモデルをシームレスに改善することができる。
分類タスクでは、これらのバグは負のフリップという形で発生する。
これは、古いモデルによって正しく分類されたインスタンスが更新されたモデルによって誤って分類されることを意味する。
これはこのようなシステムのユーザエクスペリエンスに直接的な悪影響を及ぼす。例えば、頻繁に使われる音声アシスタントクエリが突然誤分類される。
モデルを更新する一般的な理由は、新しいトレーニングデータが利用可能になり、組み込む必要があるときである。
モデルを更新データで再トレーニングするだけで、望ましくない負のフリップが発生します。
データ更新時の回帰問題について検討し,BCWI(Backward Compatible Weight Interpolation)を提案する。
本手法は旧モデルの重みと新モデルの重みを補間し,新モデルの精度向上を犠牲にすることなく負のフリップを低減できることを示す。
BCWIは直接的に実装され、推論コストは上昇しない。
また, 補間における重み付けの重み付けについて検討し, 負のフリップを減らすために, 複数モデルの重み付けを平均化する。
関連論文リスト
- OLR-WA Online Regression with Weighted Average [0.0]
機械学習モデルをトレーニングするための新しいオンライン線形回帰手法を導入する。
導入されたモデルはOLR-WAと呼ばれ、データ変更時に柔軟性を提供するためにユーザ定義の重みを使用する。
一貫性のあるデータに対して、OLR-WAと静的バッチモデルも同様に、そして様々なデータに対して、ユーザがOLR-WAをより迅速に適応するように設定したり、変更に抵抗したりすることができる。
論文 参考訳(メタデータ) (2023-07-06T06:39:27Z) - Analysis of Interpolating Regression Models and the Double Descent
Phenomenon [3.883460584034765]
ノイズの多いトレーニングデータを補間するモデルは、一般化に乏しいと一般的に推測されている。
得られた最良のモデルは過度にパラメータ化され、テストエラーはモデル順序が増加するにつれて二重降下挙動を示す。
回帰行列の最小特異値の振舞いに基づいて、テスト誤差のピーク位置と二重降下形状をモデル順序の関数として説明する。
論文 参考訳(メタデータ) (2023-04-17T09:44:33Z) - Hot-Refresh Model Upgrades with Regression-Alleviating Compatible
Training in Image Retrieval [34.84329831602699]
コールド・リフレッシュモデルのアップグレードは、ギャラリー全体のバックフィルが完了した後のみ、新しいモデルをデプロイできる。
対照的に、ホットリフレッシュモデルのアップグレードでは、新しいモデルを即座にデプロイし、その後、ギャラリーをオンザフライでバックフィルすることで、検索精度を徐々に改善する。
論文 参考訳(メタデータ) (2022-01-24T14:59:12Z) - Forward Compatible Training for Representation Learning [53.300192863727226]
後方互換トレーニング(BCT)は、新しいモデルのトレーニングを変更して、その表現を古いモデルのトレーニングと互換性を持たせる。
BCTは新しいモデルの性能を著しく損なう可能性がある。
本研究では,表現学習のための新しい学習パラダイムである,前方互換学習(FCT)を提案する。
論文 参考訳(メタデータ) (2021-12-06T06:18:54Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - What do we expect from Multiple-choice QA Systems? [70.86513724662302]
複数のMultiple Choice Question Answering(MCQA)データセット上で,トップパフォーマンスモデルを検討する。
このようなモデルから得られる可能性のある一連の期待値に対して、モデル入力のゼロ情報摂動を用いて評価する。
論文 参考訳(メタデータ) (2020-11-20T21:27:10Z) - Positive-Congruent Training: Towards Regression-Free Model Updates [87.25247195148187]
画像分類において、サンプルワイドの不整合は「負のフリップ」として現れる
新しいモデルは、古い(参照)モデルによって正しく分類されたテストサンプルの出力を誤って予測する。
そこで本研究では,PC トレーニングのための簡易なアプローチである Focal Distillation を提案する。
論文 参考訳(メタデータ) (2020-11-18T09:00:44Z) - Variational Bayesian Unlearning [54.26984662139516]
本研究では, ベイズモデルの学習を, 消去する訓練データの小さな部分集合から, ほぼ非学習する問題について検討する。
消去されたデータから完全に学習されていないデータと、過去の信念を完全に忘れていないデータとをトレードオフする証拠を最小化するのと等価であることを示す。
VI を用いたモデルトレーニングでは、完全なデータから近似した(正確には)後続の信念しか得られず、未学習をさらに困難にしている。
論文 参考訳(メタデータ) (2020-10-24T11:53:00Z) - Learning to Reweight with Deep Interactions [104.68509759134878]
本稿では,教師モデルに内部状態を提供する改良型データ再重み付けアルゴリズムを提案する。
クリーン/ノイズラベルとニューラルマシン翻訳を用いた画像分類実験は、我々のアルゴリズムが従来の手法よりも大幅に改善されていることを実証的に実証した。
論文 参考訳(メタデータ) (2020-07-09T09:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。