論文の概要: Supervised Learning in the Presence of Concept Drift: A modelling
framework
- arxiv url: http://arxiv.org/abs/2005.10531v2
- Date: Sat, 27 Feb 2021 20:45:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 23:03:13.052355
- Title: Supervised Learning in the Presence of Concept Drift: A modelling
framework
- Title(参考訳): 概念ドリフトの存在下での教師あり学習:モデリングフレームワーク
- Authors: Michiel Straat, Fthi Abadi, Zhuoyun Kan, Christina G\"opfert, Barbara
Hammer, Michael Biehl
- Abstract要約: 非定常環境における教師あり学習の研究のためのモデリングフレームワークを提案する。
学習システムの例として、分類のためのプロトタイプベースの学習ベクトル量子化(LVQ)と回帰タスクのための浅層ニューラルネットワークをモデル化する。
- 参考スコア(独自算出の注目度): 5.22609266390809
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a modelling framework for the investigation of supervised learning
in non-stationary environments. Specifically, we model two example types of
learning systems: prototype-based Learning Vector Quantization (LVQ) for
classification and shallow, layered neural networks for regression tasks. We
investigate so-called student teacher scenarios in which the systems are
trained from a stream of high-dimensional, labeled data. Properties of the
target task are considered to be non-stationary due to drift processes while
the training is performed. Different types of concept drift are studied, which
affect the density of example inputs only, the target rule itself, or both. By
applying methods from statistical physics, we develop a modelling framework for
the mathematical analysis of the training dynamics in non-stationary
environments.
Our results show that standard LVQ algorithms are already suitable for the
training in non-stationary environments to a certain extent. However, the
application of weight decay as an explicit mechanism of forgetting does not
improve the performance under the considered drift processes. Furthermore, we
investigate gradient-based training of layered neural networks with sigmoidal
activation functions and compare with the use of rectified linear units (ReLU).
Our findings show that the sensitivity to concept drift and the effectiveness
of weight decay differs significantly between the two types of activation
function.
- Abstract(参考訳): 非定常環境における教師あり学習の研究のためのモデリングフレームワークを提案する。
具体的には、分類のためのプロトタイプベースの学習ベクトル量子化(LVQ)と回帰タスクのための浅層ニューラルネットワークの2つの例をモデル化する。
本研究では,高次元のラベル付きデータストリームからシステムを訓練するいわゆる学生教師シナリオについて検討する。
目標タスクの性質は、トレーニングの実行中にドリフトプロセスによって非定常であると考えられている。
異なる種類の概念ドリフトが研究され、サンプル入力のみの密度、ターゲットルール自体、あるいはその両方に影響を与える。
統計物理学の手法を応用し,非定常環境におけるトレーニングダイナミクスの数学的解析のためのモデリングフレームワークを開発した。
その結果,標準lvqアルゴリズムは非定常環境におけるトレーニングにすでにある程度適していることがわかった。
しかし, 重量減衰を忘れる明示的な機構として応用することは, ドリフト過程における性能を向上させるものではない。
さらに,Sigmoidal activation関数を持つ階層型ニューラルネットワークの勾配に基づくトレーニングについて検討し,修正線形ユニット(ReLU)との比較を行った。
その結果,概念ドリフトに対する感受性と減量効果は2種類の活性化関数で大きく異なることがわかった。
関連論文リスト
- MTP: Advancing Remote Sensing Foundation Model via Multi-Task Pretraining [73.81862342673894]
ファンデーションモデルは、様々な画像解釈タスクを強化することで、リモートセンシング(RS)のランドスケープを再構築した。
事前訓練されたモデルを下流のタスクに転送することは、イメージ分類やオブジェクト識別タスクとして事前訓練の定式化によるタスクの相違に遭遇する可能性がある。
SAMRSデータセット上で、セマンティックセグメンテーション、インスタンスセグメンテーション、回転オブジェクト検出を含むマルチタスクによる事前トレーニングを行う。
我々のモデルは、シーン分類、水平・回転物体検出、セマンティックセグメンテーション、変化検出など、様々なRS下流タスクに基づいて微調整される。
論文 参考訳(メタデータ) (2024-03-20T09:17:22Z) - Diffusion-Model-Assisted Supervised Learning of Generative Models for
Density Estimation [10.793646707711442]
本稿では,密度推定のための生成モデルを訓練するためのフレームワークを提案する。
スコアベース拡散モデルを用いてラベル付きデータを生成する。
ラベル付きデータが生成されると、シンプルな完全に接続されたニューラルネットワークをトレーニングして、教師付き方法で生成モデルを学ぶことができます。
論文 参考訳(メタデータ) (2023-10-22T23:56:19Z) - Loss Dynamics of Temporal Difference Reinforcement Learning [36.772501199987076]
線形関数近似器を用いた値関数の時間差学習のためのケースラーニング曲線について検討した。
本研究では,学習力学と台地が特徴構造,学習率,割引係数,報酬関数にどのように依存するかを検討する。
論文 参考訳(メタデータ) (2023-07-10T18:17:50Z) - Kalman Filter for Online Classification of Non-Stationary Data [101.26838049872651]
オンライン連続学習(OCL)では、学習システムはデータのストリームを受け取り、予測とトレーニングの手順を順次実行する。
本稿では,線形予測量に対するニューラル表現と状態空間モデルを用いた確率ベイズオンライン学習モデルを提案する。
多クラス分類の実験では、モデルの予測能力と非定常性を捉える柔軟性を示す。
論文 参考訳(メタデータ) (2023-06-14T11:41:42Z) - Towards Foundation Models for Scientific Machine Learning:
Characterizing Scaling and Transfer Behavior [32.74388989649232]
我々は、科学機械学習(SciML)の応用において、事前学習をどのように利用できるかを研究する。
これらのモデルを微調整すると、モデルのサイズが大きくなるにつれてパフォーマンスが向上することがわかった。
論文 参考訳(メタデータ) (2023-06-01T00:32:59Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Imitating Deep Learning Dynamics via Locally Elastic Stochastic
Differential Equations [20.066631203802302]
本研究では, 深層学習における特徴の進化を, それぞれが学習サンプルに対応する微分方程式(SDE)を用いて研究する。
我々の結果は、ニューラルネットワークのトレーニング力学における局所弾性の決定的な役割に光を当てた。
論文 参考訳(メタデータ) (2021-10-11T17:17:20Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - Gradients as Features for Deep Representation Learning [26.996104074384263]
本稿では,事前学習したディープ・ネットワークを様々なタスクに適応させることによって,ディープ・表現学習の課題に対処する。
我々の重要な革新は、事前訓練されたネットワークの勾配と活性化の両方を組み込んだ線形モデルの設計である。
我々は,実際の勾配を計算せずに,モデルのトレーニングと推論を効率的に行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-04-12T02:57:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。