論文の概要: Model Stability with Continuous Data Updates
- arxiv url: http://arxiv.org/abs/2201.05692v1
- Date: Fri, 14 Jan 2022 22:11:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 15:06:28.964890
- Title: Model Stability with Continuous Data Updates
- Title(参考訳): 継続的データ更新によるモデル安定性
- Authors: Huiting Liu, Avinesh P.V.S., Siddharth Patwardhan, Peter Grasch,
Sachin Agarwal
- Abstract要約: 機械学習(ML)モデルの「安定性」を,大規模で複雑なNLPシステムのコンテキスト内で研究する。
ネットワークアーキテクチャや入力表現を含むモデル設計の選択は、安定性に重大な影響を与える。
モデリングの選択を行う際に、MLモデルデザイナが正確さとジッタのトレードオフを考慮に入れることを推奨する。
- 参考スコア(独自算出の注目度): 2.439909645714735
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we study the "stability" of machine learning (ML) models
within the context of larger, complex NLP systems with continuous training data
updates. For this study, we propose a methodology for the assessment of model
stability (which we refer to as jitter under various experimental conditions.
We find that model design choices, including network architecture and input
representation, have a critical impact on stability through experiments on four
text classification tasks and two sequence labeling tasks. In classification
tasks, non-RNN-based models are observed to be more stable than RNN-based ones,
while the encoder-decoder model is less stable in sequence labeling tasks.
Moreover, input representations based on pre-trained fastText embeddings
contribute to more stability than other choices. We also show that two learning
strategies -- ensemble models and incremental training -- have a significant
influence on stability. We recommend ML model designers account for trade-offs
in accuracy and jitter when making modeling choices.
- Abstract(参考訳): 本稿では、機械学習モデル(ML)の「安定性」を、連続的なトレーニングデータ更新を伴う大規模で複雑なNLPシステムのコンテキスト内で研究する。
本研究では,様々な実験条件下でモデル安定性を評価する手法を提案する。
ネットワークアーキテクチャや入力表現を含むモデル設計の選択は,4つのテキスト分類タスクと2つのシーケンスラベリングタスクの実験を通じて,安定性に重大な影響を与えることがわかった。
分類タスクでは、非RNNモデルの方がRNNモデルよりも安定であり、エンコーダデコーダモデルはシーケンスラベリングタスクではより安定である。
さらに、事前学習されたfasttext埋め込みに基づく入力表現は他の選択よりも安定性に寄与する。
また、アンサンブルモデルとインクリメンタルトレーニングという2つの学習戦略が安定性に大きな影響を与えていることも示しています。
モデリングの選択を行う際に、MLモデルデザイナが正確さとジッタのトレードオフを考慮することを推奨する。
関連論文リスト
- Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Towards Stable Machine Learning Model Retraining via Slowly Varying Sequences [6.067007470552307]
そこで本研究では,繰り返しのトレーニングにおいて安定な機械学習モデルのシーケンスを見つける手法を提案する。
最適モデルの復元が保証される混合整数最適化の定式化を開発する。
本手法は, 予測力の小さい, 制御可能な犠牲を伴い, 厳密に訓練されたモデルよりも強い安定性を示す。
論文 参考訳(メタデータ) (2024-03-28T22:45:38Z) - QualEval: Qualitative Evaluation for Model Improvement [82.73561470966658]
モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
論文 参考訳(メタデータ) (2023-11-06T00:21:44Z) - Towards Plastic and Stable Exemplar-Free Incremental Learning: A Dual-Learner Framework with Cumulative Parameter Averaging [12.168402195820649]
In this proposed a Dual-Learner framework with Cumulative。
平均化(DLCPA)
DLCPA は Task-IL と Class-IL の両方の設定において,最先端の既定ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-28T08:48:44Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - New metrics for analyzing continual learners [27.868967961503962]
継続学習(CL)は、標準的な学習アルゴリズムに課題をもたらす。
この安定性・塑性ジレンマはCLの中心であり、安定性と塑性を個別に適切に測定するために複数の測定基準が提案されている。
課題の難しさを考慮に入れた新しい指標を提案する。
論文 参考訳(メタデータ) (2023-09-01T13:53:33Z) - Online Continual Learning for Robust Indoor Object Recognition [24.316047317028143]
ホームロボットに搭載された視覚システムは、環境の変化の中で見えないクラスと対話する必要がある。
本稿では,高次統計モーメントを演算するリッチな特徴空間を構成するRobOCLeを提案する。
異なるモーメントにより、RobOCLeは変形の異なる特性を捉えることができ、推論速度を低下させることなく高いロバスト性が得られることを示す。
論文 参考訳(メタデータ) (2023-07-19T08:32:59Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Entailment as Robust Self-Learner [14.86757876218415]
我々は、複数の異なるNLUタスクを文脈的エンターテイメントとして定式化するプロンプト戦略を設計する。
自己学習における擬似ラベル品質向上のための簡易擬似ラベル編集(SimPLE)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-26T18:41:23Z) - On the Stability-Plasticity Dilemma of Class-Incremental Learning [50.863180812727244]
クラス増分学習の第一の目的は、安定性と可塑性のバランスをとることである。
本稿では,近年のクラス増分学習アルゴリズムが,安定性と塑性のトレードオフにいかに効果的かを明らかにすることを目的とする。
論文 参考訳(メタデータ) (2023-04-04T09:34:14Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。