論文の概要: DriftSurf: A Risk-competitive Learning Algorithm under Concept Drift
- arxiv url: http://arxiv.org/abs/2003.06508v2
- Date: Sun, 2 Aug 2020 15:05:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 01:13:01.226098
- Title: DriftSurf: A Risk-competitive Learning Algorithm under Concept Drift
- Title(参考訳): DriftSurf:概念ドリフト下でのリスク競合学習アルゴリズム
- Authors: Ashraf Tahmasbi, Ellango Jothimurugesan, Srikanta Tirthapura, Phillip
B. Gibbons
- Abstract要約: ストリーミングデータから学ぶとき、概念ドリフト(concept drift)とも呼ばれるデータ分散の変化は、以前に学習したモデルが不正確なものになる可能性がある。
本研究では,ドリフト検出をより広範な安定状態/反応性状態プロセスに組み込むことにより,従来のドリフト検出に基づく手法を拡張する適応学習アルゴリズムを提案する。
このアルゴリズムはベースラーナーにおいて汎用的であり、様々な教師付き学習問題に適用できる。
- 参考スコア(独自算出の注目度): 12.579800289829963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When learning from streaming data, a change in the data distribution, also
known as concept drift, can render a previously-learned model inaccurate and
require training a new model. We present an adaptive learning algorithm that
extends previous drift-detection-based methods by incorporating drift detection
into a broader stable-state/reactive-state process. The advantage of our
approach is that we can use aggressive drift detection in the stable state to
achieve a high detection rate, but mitigate the false positive rate of
standalone drift detection via a reactive state that reacts quickly to true
drifts while eliminating most false positives. The algorithm is generic in its
base learner and can be applied across a variety of supervised learning
problems. Our theoretical analysis shows that the risk of the algorithm is
competitive to an algorithm with oracle knowledge of when (abrupt) drifts
occur. Experiments on synthetic and real datasets with concept drifts confirm
our theoretical analysis.
- Abstract(参考訳): ストリーミングデータから学ぶとき、コンセプトドリフト(concept drift)とも呼ばれるデータ分散の変化は、事前に学習したモデルが不正確で、新しいモデルをトレーニングする必要がある。
本研究では,従来のドリフト検出法を拡張した適応学習アルゴリズムを提案する。
この手法の利点は, 安定状態において積極的にドリフト検出を行うことで高い検出率を達成できるが, 実際のドリフトに迅速に反応し, ほとんどの偽陽性を排除しながら, スタンドアロンドリフト検出の偽陽性率を軽減できることである。
このアルゴリズムは基本学習器では一般的であり、様々な教師付き学習問題に適用することができる。
我々の理論的分析は、アルゴリズムのリスクは、いつ(突然)ドリフトが起こるかというオラクルの知識を持つアルゴリズムと競合することを示している。
概念ドリフトを用いた合成データと実データの実験により, 理論的解析が確立された。
関連論文リスト
- Non-Stationary Learning of Neural Networks with Automatic Soft Parameter Reset [98.52916361979503]
非定常性を自動的にモデル化し適応する新しい学習手法を導入する。
非定常的・非政治的強化学習環境において,本手法が有効であることを示す。
論文 参考訳(メタデータ) (2024-11-06T16:32:40Z) - DriftGAN: Using historical data for Unsupervised Recurring Drift Detection [0.6358693097475243]
実世界のアプリケーションでは、入力データ分布は、概念ドリフト(concept drift)として知られる現象として、一定期間にわたって静的であることが多い。
ほとんどの概念ドリフト検出方法は、概念ドリフトを検出し、モデルを再訓練する要求をシグナル伝達する。
本稿では,GAN(Generative Adversarial Networks)に基づく教師なしの手法を提案する。
論文 参考訳(メタデータ) (2024-07-09T04:38:44Z) - Unsupervised Concept Drift Detection from Deep Learning Representations in Real-time [5.999777817331315]
コンセプト・ドリフト(英: Concept Drift)は、対象領域の基本的なデータ分布と統計的性質が時間とともに変化する現象である。
我々は、教師なしリアルタイム概念ドリフト検出フレームワークDriftLensを提案する。
深層学習表現の分布距離を利用して非構造化データに作用する。
論文 参考訳(メタデータ) (2024-06-24T23:41:46Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Autoregressive based Drift Detection Method [0.0]
我々はADDMと呼ばれる自己回帰モデルに基づく新しい概念ドリフト検出手法を提案する。
以上の結果から,新しいドリフト検出法は最先端ドリフト検出法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-09T14:36:16Z) - Detecting Concept Drift With Neural Network Model Uncertainty [0.0]
不確実ドリフト検出(UDD)は、真のラベルにアクセスすることなくドリフトを検出することができる。
入力データに基づくドリフト検出とは対照的に,現在の入力データが予測モデルの特性に与える影響を考察する。
UDDは2つの合成および10の実世界のデータセットにおいて、回帰処理と分類処理の両方において、他の最先端戦略よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-05T08:56:36Z) - Out-of-Distribution Detection for Automotive Perception [58.34808836642603]
ニューラルネットワーク(NN)は、自律運転におけるオブジェクト分類に広く使われている。
NNは、アウト・オブ・ディストリビューション(OOD)データとして知られるトレーニングデータセットで適切に表現されていない入力データでフェールすることができる。
本稿では,OODデータを必要としない入力がOODであるか否かを判定し,推論の計算コストを増大させる方法を提案する。
論文 参考訳(メタデータ) (2020-11-03T01:46:35Z) - Adversarial Concept Drift Detection under Poisoning Attacks for Robust
Data Stream Mining [15.49323098362628]
本稿では,敵対的攻撃と毒殺攻撃の存在下でのロバストな概念ドリフト検出のための枠組みを提案する。
本稿では,2種類の逆流の概念と,頑健な訓練可能なドリフト検出器の分類について紹介する。
また,ロバストネスの相対損失 (Relative Loss of Robustness) についても紹介する。
論文 参考訳(メタデータ) (2020-09-20T18:46:31Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。