論文の概要: When to retrain a machine learning model
- arxiv url: http://arxiv.org/abs/2505.14903v1
- Date: Tue, 20 May 2025 20:55:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:58.752151
- Title: When to retrain a machine learning model
- Title(参考訳): 機械学習モデルの再訓練
- Authors: Regol Florence, Schwinn Leo, Sprague Kyle, Coates Mark, Markovich Thomas,
- Abstract要約: 現実世界の機械学習モデルを維持する上で重要な課題は、データの継続的かつ予測不可能な進化に対応することだ。
本研究では,境界距離で評価されたモデル性能の進化を連続的に予測して決定する不確実性に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A significant challenge in maintaining real-world machine learning models is responding to the continuous and unpredictable evolution of data. Most practitioners are faced with the difficult question: when should I retrain or update my machine learning model? This seemingly straightforward problem is particularly challenging for three reasons: 1) decisions must be made based on very limited information - we usually have access to only a few examples, 2) the nature, extent, and impact of the distribution shift are unknown, and 3) it involves specifying a cost ratio between retraining and poor performance, which can be hard to characterize. Existing works address certain aspects of this problem, but none offer a comprehensive solution. Distribution shift detection falls short as it cannot account for the cost trade-off; the scarcity of the data, paired with its unusual structure, makes it a poor fit for existing offline reinforcement learning methods, and the online learning formulation overlooks key practical considerations. To address this, we present a principled formulation of the retraining problem and propose an uncertainty-based method that makes decisions by continually forecasting the evolution of model performance evaluated with a bounded metric. Our experiments addressing classification tasks show that the method consistently outperforms existing baselines on 7 datasets.
- Abstract(参考訳): 現実世界の機械学習モデルを維持する上で重要な課題は、データの継続的かつ予測不可能な進化に対応することだ。
ほとんどの実践者は、難しい問題に直面している。いつ機械学習モデルを再トレーニングするか、更新すべきか?
この一見単純な問題は、3つの理由から特に難しい。
1) 決定は非常に限られた情報に基づいて行う必要がある。
2)分布シフトの性質、範囲、影響は不明である。
3)再トレーニングとパフォーマンスの低さのコスト比を指定する必要がある。
既存の作業はこの問題の特定の側面に対処するが、包括的なソリューションを提供するものは存在しない。
分散シフト検出はコストトレードオフを考慮できないため不足しており、データの不足と異常な構造が組み合わさって、既存のオフライン強化学習手法には適さないものとなり、オンライン学習の定式化は重要な実践上の考慮事項を見落としている。
そこで本研究では,リトレーニング問題の原理的定式化と,境界距離で評価したモデル性能の進化を継続的に予測して決定する不確実性に基づく手法を提案する。
分類タスクに対処する実験により,本手法が既存の7つのデータセットのベースラインを一貫して上回ることを示す。
関連論文リスト
- When to Forget? Complexity Trade-offs in Machine Unlearning [23.507879460531264]
Machine Unlearning(MU)は、トレーニングされたモデルから特定のデータポイントの影響を取り除くことを目的としている。
本研究では,非学習手法の効率を解析し,この問題に対するミニマックス時間における第1の上限値と第2の上限値の設定を行う。
未学習度比の位相図 – 最高の未学習手法の計算コストと完全なモデル再学習を比較する新しいメトリクスを提供する。
論文 参考訳(メタデータ) (2025-02-24T16:56:27Z) - Forgetting, Ignorance or Myopia: Revisiting Key Challenges in Online Continual Learning [29.65600202138321]
高速なデータストリーム環境では、遅いモデルに対応するためにデータが停止しない。
モデルの無知: OCLのシングルパスの性質は、制約付きトレーニング時間内で効果的な機能を学ぶためにモデルに挑戦する。
モデルのミオピア:OCLの局所的な学習特性は、過度に単純化されたタスク固有の機能を採用するモデルに導かれる。
論文 参考訳(メタデータ) (2024-09-28T05:24:56Z) - Test-Time Adaptation for Combating Missing Modalities in Egocentric Videos [92.38662956154256]
現実のアプリケーションは、プライバシの懸念、効率性の必要性、ハードウェアの問題により、不完全なモダリティを伴う問題に直面することが多い。
再トレーニングを必要とせずに,テスト時にこの問題に対処する新しい手法を提案する。
MiDlは、欠落したモダリティをテスト時にのみ扱う、自己管理型のオンラインソリューションとしては初めてのものだ。
論文 参考訳(メタデータ) (2024-04-23T16:01:33Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Class-wise Federated Unlearning: Harnessing Active Forgetting with Teacher-Student Memory Generation [11.638683787598817]
能動的忘れ込みに基づく神経刺激型フェデレーション・アンラーニング・フレームワークを提案する。
我々のフレームワークは、新しい記憶を利用して古い記憶を上書きすることで、既存の方法と差別化している。
本手法は,バックドア攻撃に対する未学習の完全性を実現する。
論文 参考訳(メタデータ) (2023-07-07T03:07:26Z) - Repairing Neural Networks by Leaving the Right Past Behind [23.78437548836594]
機械学習モデルの予測失敗は、トレーニングデータの欠陥から生じることが多い。
この研究は、目標とする障害を発生させたトレーニング例を特定し、それらに関する情報を消去することでモデルを修正するための一般的なフレームワークを開発する。
論文 参考訳(メタデータ) (2022-07-11T12:07:39Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。