論文の概要: Measuring and Reducing Model Update Regression in Structured Prediction
for NLP
- arxiv url: http://arxiv.org/abs/2202.02976v1
- Date: Mon, 7 Feb 2022 07:04:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 02:53:08.583786
- Title: Measuring and Reducing Model Update Regression in Structured Prediction
for NLP
- Title(参考訳): NLPの構造化予測におけるモデル更新回帰の測定と低減
- Authors: Deng Cai and Elman Mansimov and Yi-An Lai and Yixuan Su and Lei Shu
and Yi Zhang
- Abstract要約: 後方互換性は、新しいモデルが前者によって正しく処理されたケースに回帰しないことを要求する。
本研究は、構造化予測タスクにおける更新回帰をモデル化する。
本稿では,構造化出力の特性を考慮し,単純かつ効果的なバックワード・コングルエント・リグレード(BCR)を提案する。
- 参考スコア(独自算出の注目度): 31.86240946966003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advance in deep learning has led to rapid adoption of machine learning
based NLP models in a wide range of applications. Despite the continuous gain
in accuracy, backward compatibility is also an important aspect for industrial
applications, yet it received little research attention. Backward compatibility
requires that the new model does not regress on cases that were correctly
handled by its predecessor. This work studies model update regression in
structured prediction tasks. We choose syntactic dependency parsing and
conversational semantic parsing as representative examples of structured
prediction tasks in NLP. First, we measure and analyze model update regression
in different model update settings. Next, we explore and benchmark existing
techniques for reducing model update regression including model ensemble and
knowledge distillation. We further propose a simple and effective method,
Backward-Congruent Re-ranking (BCR), by taking into account the characteristics
of structured output. Experiments show that BCR can better mitigate model
update regression than model ensemble and knowledge distillation approaches.
- Abstract(参考訳): 近年のディープラーニングの進歩により、幅広いアプリケーションで機械学習ベースのNLPモデルが急速に採用されている。
精度の継続的な向上にもかかわらず、後方互換性は産業アプリケーションにとって重要な側面であるが、研究の注目を集めていない。
後方互換性は、新しいモデルが前任者が正しく処理したケースを後退させないように要求する。
本研究は、構造化予測タスクにおける更新回帰をモデル化する。
我々は,NLPにおける構造化予測タスクの代表的な例として,構文依存解析と会話意味解析を選択する。
まず、異なるモデル更新設定でモデル更新レグレッションを測定し、分析する。
次に,モデルアンサンブルと知識蒸留を含むモデル更新回帰を低減するための既存手法の検討とベンチマークを行う。
さらに、構造化された出力の特性を考慮し、単純で効果的なBCR(Backward-Congruent Re- rank)を提案する。
実験により、BCRはモデルアンサンブルや知識蒸留法よりもモデル更新回帰を緩和できることが示された。
関連論文リスト
- Towards Stable Machine Learning Model Retraining via Slowly Varying Sequences [6.067007470552307]
そこで本研究では,繰り返しのトレーニングにおいて安定な機械学習モデルのシーケンスを見つける手法を提案する。
最適モデルの復元が保証される混合整数最適化の定式化を開発する。
本手法は, 予測力の小さい, 制御可能な犠牲を伴い, 厳密に訓練されたモデルよりも強い安定性を示す。
論文 参考訳(メタデータ) (2024-03-28T22:45:38Z) - QualEval: Qualitative Evaluation for Model Improvement [82.73561470966658]
モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
論文 参考訳(メタデータ) (2023-11-06T00:21:44Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Predictable MDP Abstraction for Unsupervised Model-Based RL [93.91375268580806]
予測可能なMDP抽象化(PMA)を提案する。
元のMDPで予測モデルを訓練する代わりに、学習されたアクション空間を持つ変換MDPでモデルを訓練する。
我々はPMAを理論的に解析し、PMAが以前の教師なしモデルベースRLアプローチよりも大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-02-08T07:37:51Z) - ResMem: Learn what you can and memorize the rest [79.19649788662511]
本稿では,既存の予測モデルを拡張するための残差記憶アルゴリズム(ResMem)を提案する。
構築によって、ResMemはトレーニングラベルを明示的に記憶することができる。
ResMemは、元の予測モデルのテストセットの一般化を一貫して改善することを示す。
論文 参考訳(メタデータ) (2023-02-03T07:12:55Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - Model Repair: Robust Recovery of Over-Parameterized Statistical Models [24.319310729283636]
そこでは,データから推定された統計モデルを破損させた統計モデルを復元することが目的である。
モデルを教師付き学習環境に適合させるために使用する応答値ではなく,設計のみを用いてモデルを再ペアリングする手法を提案する。
論文 参考訳(メタデータ) (2020-05-20T08:41:56Z) - A Locally Adaptive Interpretable Regression [7.4267694612331905]
線形回帰は最も解釈可能な予測モデルの一つである。
本稿では,局所適応型解釈型回帰(LoAIR)を導入する。
我々のモデルは、他の最先端のベースラインと同等またはより良い予測性能を達成する。
論文 参考訳(メタデータ) (2020-05-07T09:26:14Z) - PrIU: A Provenance-Based Approach for Incrementally Updating Regression
Models [9.496524884855559]
本稿では,予測精度を犠牲にすることなく,モデルパラメータを漸進的に更新する手法PrIUを提案する。
漸進的に更新されたモデルパラメータの正しさと収束性を証明し、実験的に検証する。
実験結果から, PrIU-optはスクラッチからモデルを再トレーニングするのに対して, 非常に類似したモデルを得るよりも, 最大2桁のスピードアップを達成できることがわかった。
論文 参考訳(メタデータ) (2020-02-26T21:04:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。