論文の概要: Bootstrapped Control Limits for Score-Based Concept Drift Control Charts
- arxiv url: http://arxiv.org/abs/2507.16749v1
- Date: Tue, 22 Jul 2025 16:36:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:14.208775
- Title: Bootstrapped Control Limits for Score-Based Concept Drift Control Charts
- Title(参考訳): スコアベースコンセプトドリフト制御チャートのためのブートストラップ制御限界
- Authors: Jiezhong Wu, Daniel W. Apley,
- Abstract要約: 適応型教師付き学習モデル(コンセプトドリフト検出)で表される予測関係の変化のモニタリングは広く行われている問題である。
汎用的で強力なフィッシャースコアに基づくコンセプトドリフト手法が最近提案されている。
我々は制御限界(CL)を計算するための新しいブートストラップ法を開発した。
これは、特にサンプルサイズと/または偽アラームレートが小さい場合に、より正確な偽アラームレートの制御を提供する。
- 参考スコア(独自算出の注目度): 0.5985204759362747
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Monitoring for changes in a predictive relationship represented by a fitted supervised learning model (aka concept drift detection) is a widespread problem, e.g., for retrospective analysis to determine whether the predictive relationship was stable over the training data, for prospective analysis to determine when it is time to update the predictive model, for quality control of processes whose behavior can be characterized by a predictive relationship, etc. A general and powerful Fisher score-based concept drift approach has recently been proposed, in which concept drift detection reduces to detecting changes in the mean of the model's score vector using a multivariate exponentially weighted moving average (MEWMA). To implement the approach, the initial data must be split into two subsets. The first subset serves as the training sample to which the model is fit, and the second subset serves as an out-of-sample test set from which the MEWMA control limit (CL) is determined. In this paper, we develop a novel bootstrap procedure for computing the CL. Our bootstrap CL provides much more accurate control of false-alarm rate, especially when the sample size and/or false-alarm rate is small. It also allows the entire initial sample to be used for training, resulting in a more accurate fitted supervised learning model. We show that a standard nested bootstrap (inner loop accounting for future data variability and outer loop accounting for training sample variability) substantially underestimates variability and develop a 632-like correction that appropriately accounts for this. We demonstrate the advantages with numerical examples.
- Abstract(参考訳): 適応型教師付き学習モデル(コンセプトドリフト検出)で表される予測関係の変化の監視は、トレーニングデータ上で予測関係が安定しているかどうかを判断するための振り返り分析、予測モデルを更新する時期を決定するための予測分析、予測関係によって特徴付けられるプロセスの品質制御など、広く行われている問題である。
近年,多変量指数重み移動平均 (MEWMA) を用いて, モデルスコアベクトルの平均値の変化を検出するために, コンセプトドリフト検出を低減させる, 汎用的で強力なフィッシャースコアベースのコンセプトドリフト手法が提案されている。
このアプローチを実装するには、初期データを2つのサブセットに分割する必要がある。
第1サブセットは、モデルが適合するトレーニングサンプルとして機能し、第2サブセットは、MEWMA制御限界(CL)が決定されるサンプル外テストセットとして機能する。
本稿では,CL 計算のための新しいブートストラップ手法を提案する。
我々のブートストラップCLは、特にサンプルサイズと/または偽アラームレートが小さい場合に、より正確な偽アラームレートの制御を提供する。
また、初期サンプル全体をトレーニングに使用することができるため、より正確な教師付き学習モデルが提供される。
標準のネスト型ブートストラップ(将来のデータ可変性を考慮したインナーループ会計とトレーニングサンプル可変性のための外部ループ会計)は,変数を著しく過小評価し,これを適切に考慮した632型補正を開発する。
数値的な例でその利点を実証する。
関連論文リスト
- Cluster Analysis and Concept Drift Detection in Malware [1.3812010983144798]
概念ドリフト(concept drift)とは、機械学習モデルの精度に影響を与えるデータの特性の漸進的または突然の変化を指す。
マルウェア領域におけるコンセプトドリフトを検出するためのクラスタリングに基づく手法を提案し,解析する。
論文 参考訳(メタデータ) (2025-02-19T22:42:30Z) - DOTA: Distributional Test-Time Adaptation of Vision-Language Models [52.98590762456236]
トレーニングフリーテスト時動的アダプタ(TDA)は、この問題に対処するための有望なアプローチである。
単体テスト時間適応法(Dota)の簡易かつ効果的な方法を提案する。
Dotaは継続的にテストサンプルの分布を推定し、モデルがデプロイメント環境に継続的に適応できるようにします。
論文 参考訳(メタデータ) (2024-09-28T15:03:28Z) - ReAugment: Model Zoo-Guided RL for Few-Shot Time Series Augmentation and Forecasting [74.00765474305288]
本稿では,時系列データ拡張のための強化学習(RL)の試験的検討を行う。
我々の手法であるReAugmentは、トレーニングセットのどの部分が拡張されるべきか、どのように拡張を行うべきか、RLがプロセスにどのような利点をもたらすのか、という3つの重要な問題に取り組む。
論文 参考訳(メタデータ) (2024-09-10T07:34:19Z) - Boosted Control Functions: Distribution generalization and invariance in confounded models [10.503777692702952]
非線形で非同定可能な構造関数が存在する場合でも分布の一般化を可能にする不変性という強い概念を導入する。
フレキシブルな機械学習手法を用いて,ブースト制御関数(BCF)を推定する制御Twicingアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-09T15:43:46Z) - Distributionally Robust Post-hoc Classifiers under Prior Shifts [31.237674771958165]
本研究では,クラスプライヤやグループプライヤの分布の変化による変化に頑健なトレーニングモデルの問題点について検討する。
本稿では,事前学習モデルからの予測に対するスケーリング調整を行う,非常に軽量なポストホック手法を提案する。
論文 参考訳(メタデータ) (2023-09-16T00:54:57Z) - Uncovering Drift in Textual Data: An Unsupervised Method for Detecting
and Mitigating Drift in Machine Learning Models [9.035254826664273]
機械学習におけるドリフト(drift)とは、モデルが動作しているデータやコンテキストの統計的性質が時間とともに変化し、性能が低下する現象を指す。
提案手法では, 目標分布として生産データのサンプルを符号化し, モデルトレーニングデータを基準分布として符号化する。
また,ドリフトの根本原因である生産データのサブセットも同定する。
これらの高ドリフトサンプルを用いて再トレーニングしたモデルでは、オンライン顧客エクスペリエンスの品質指標のパフォーマンスが改善された。
論文 参考訳(メタデータ) (2023-09-07T16:45:42Z) - Variational Density Propagation Continual Learning [0.0]
現実世界にデプロイされるディープニューラルネットワーク(DNN)は、定期的にオフ・オブ・ディストリビューション(OoD)データの対象となっている。
本稿では,ベンチマーク連続学習データセットによってモデル化されたデータ分散ドリフトに適応するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-22T21:51:39Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Concept Drift Monitoring and Diagnostics of Supervised Learning Models
via Score Vectors [2.7716102039510564]
我々は,概念ドリフトの検出,監視,診断のための包括的かつ計算効率の高いフレームワークを開発した。
具体的には,適合モデルの対数類似度勾配として定義されるフィッシャースコアベクトルをモニターする。
一般的なエラーベース手法よりもパフォーマンス上のメリットは大きいが,従来は概念ドリフトモニタリングではスコアベースのアプローチが考慮されていなかった。
論文 参考訳(メタデータ) (2020-12-12T22:52:45Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。