論文の概要: From drift to adaptation to the failed ml model: Transfer Learning in Industrial MLOps
- arxiv url: http://arxiv.org/abs/2602.00957v1
- Date: Sun, 01 Feb 2026 01:32:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.490836
- Title: From drift to adaptation to the failed ml model: Transfer Learning in Industrial MLOps
- Title(参考訳): ドリフトからmlモデルへの適応:産業MLOpsにおけるトランスファーラーニング
- Authors: Waqar Muhammad Ashraf, Talha Ansar, Fahad Ahmed, Jawad Hussain, Muhammad Mujtaba Abbas, Vivek Dua,
- Abstract要約: 660MWの火力発電所に設置された予熱器ユニットの排ガス差圧をケーススタディとして分析した。
3つの転送学習手法で失敗したANNモデルを更新すると、LLTLやALTLよりも5日間のバッチサイズに対する予測精度が比較的高いことが分かる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model adaptation to production environment is critical for reliable Machine Learning Operations (MLOps), less attention is paid to developing systematic framework for updating the ML models when they fail under data drift. This paper compares the transfer learning enabled model update strategies including ensemble transfer learning (ETL), all-layers transfer learning (ALTL), and last-layer transfer learning (LLTL) for updating the failed feedforward artificial neural network (ANN) model. The flue gas differential pressure across the air preheater unit installed in a 660 MW thermal power plant is analyzed as a case study since it mimics the batch processes due to load cycling in the power plant. Updating the failed ANN model by three transfer learning techniques reveals that ETL provides relatively higher predictive accuracy for the batch size of 5 days than those of LLTL and ALTL. However, ALTL is found to be suitable for effective update of the model trained on large batch size (8 days). A mixed trend is observed for computational requirement (hyperparameter tuning and model training) of model update techniques for different batch sizes. These fundamental and empiric insights obtained from the batch process-based industrial case study can assist the MLOps practitioners in adapting the failed models to data drifts for the accurate monitoring of industrial processes.
- Abstract(参考訳): プロダクション環境へのモデル適応は、信頼性の高い機械学習操作(MLOps)にとって重要である。
本稿では,全層トランスファーラーニング (ALTL) と最終層トランスファーラーニング (LLTL) を含むトランスファーラーニング可能なモデル更新戦略を比較し,失敗したフィードフォワード人工ニューラルネットワーク (ANN) モデルを更新する。
660MWの火力発電所に設置された空気予熱器ユニットの排ガス差圧は, 発電プラントの負荷サイクルによるバッチ処理を模倣するため, ケーススタディとして分析した。
3つの転送学習手法で失敗したANNモデルを更新すると、ETLはLLTLやALTLよりも5日間のバッチサイズに対して比較的高い予測精度が得られることが分かる。
しかし、ALTLは大規模なバッチサイズ(8日)でトレーニングされたモデルの効果的な更新に適している。
バッチサイズが異なるモデル更新手法の計算要求(ハイパーパラメータチューニングとモデルトレーニング)に対して混合傾向が観察される。
バッチプロセスに基づく産業ケーススタディから得られた基本的な経験的洞察は、失敗モデルにデータドリフトを適用して産業プロセスの正確なモニタリングを行うMLOps実践者を支援する。
関連論文リスト
- A Multi-Criteria Automated MLOps Pipeline for Cost-Effective Cloud-Based Classifier Retraining in Response to Data Distribution Shifts [0.0]
機械学習(ML)モデルの性能は、基礎となるデータ分布が時間とともに変化すると劣化することが多い。
MLOps(ML Operations)はしばしば手動であり、人間はモデルの再訓練と再デプロイのプロセスをトリガーする。
本稿では,データ分散の大幅な変化に応じて,ニューラルネットワークの再トレーニングに対処する自動MLOpsパイプラインを提案する。
論文 参考訳(メタデータ) (2025-12-12T13:22:14Z) - Adapting to Change: A Comparison of Continual and Transfer Learning for Modeling Building Thermal Dynamics under Concept Drifts [0.0]
トランスファーラーニングは、限られたデータしか利用できない場合、熱力学を構築するのに最も効果的な手法である。
より多くの運用計測データが時間とともに収集されるため、初期微調整後にどのように進むかは不明である。
本研究は,建築作業中の熱力学モデリングにおいて,いくつかのCLおよびTL戦略と,スクラッチから訓練したモデルを比較した。
論文 参考訳(メタデータ) (2025-08-29T13:29:54Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Exploring and Enhancing the Transfer of Distribution in Knowledge Distillation for Autoregressive Language Models [62.5501109475725]
知識蒸留(KD)は、より小さな学生モデルを模倣するように訓練することで、大きな教師モデルを圧縮する技術である。
本稿では、教師ネットワークが小さなオンラインモジュールを統合し、学生モデルと同時学習するオンライン知識蒸留(OKD)について紹介する。
OKDは、様々なモデルアーキテクチャやサイズにおけるリードメソッドのパフォーマンスを達成または超え、トレーニング時間を最大4倍に短縮する。
論文 参考訳(メタデータ) (2024-09-19T07:05:26Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Transfer Learning in Deep Learning Models for Building Load Forecasting:
Case of Limited Data [0.0]
本稿では,この問題を克服し,ディープラーニングモデルの性能を向上させるためのビルディング・ツー・ビルディング・トランスファー・ラーニング・フレームワークを提案する。
提案手法は,スクラッチからトレーニングを行う従来のディープラーニングと比較して,予測精度を56.8%向上させた。
論文 参考訳(メタデータ) (2023-01-25T16:05:47Z) - Efficient Transformers in Reinforcement Learning using Actor-Learner
Distillation [91.05073136215886]
「Actor-Learner Distillation」は、大容量学習者モデルから小容量学習者モデルへ学習の進捗を移す。
Actor-Learner Distillation を用いて,トランスフォーマー学習モデルの明確なサンプル効率向上を再現する,いくつかの挑戦的なメモリ環境を実証する。
論文 参考訳(メタデータ) (2021-04-04T17:56:34Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。