論文の概要: Unsupervised Unlearning of Concept Drift with Autoencoders
- arxiv url: http://arxiv.org/abs/2211.12989v1
- Date: Wed, 23 Nov 2022 14:52:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 14:12:15.726923
- Title: Unsupervised Unlearning of Concept Drift with Autoencoders
- Title(参考訳): オートエンコーダによる概念ドリフトの教師なし学習
- Authors: Andr\'e Artelt, Kleanthis Malialis, Christos Panayiotou, Marios
Polycarpou, Barbara Hammer
- Abstract要約: コンセプトドリフトは、将来のサンプルのデータストリームに影響を与えるデータ分散の変化を指す。
教師なしの方法で概念ドリフトを「学習」するためのオートエンコーダに基づく手法を提案する。
- 参考スコア(独自算出の注目度): 7.241731825518899
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The phenomena of concept drift refers to a change of the data distribution
affecting the data stream of future samples -- such non-stationary environments
are often encountered in the real world. Consequently, learning models
operating on the data stream might become obsolete, and need costly and
difficult adjustments such as retraining or adaptation. Existing methods to
address concept drift are, typically, categorised as active or passive. The
former continually adapt a model using incremental learning, while the latter
perform a complete model retraining when a drift detection mechanism triggers
an alarm. We depart from the traditional avenues and propose for the first time
an alternative approach which "unlearns" the effects of the concept drift.
Specifically, we propose an autoencoder-based method for "unlearning" the
concept drift in an unsupervised manner, without having to retrain or adapt any
of the learning models operating on the data.
- Abstract(参考訳): コンセプトドリフトの現象は、将来のサンプルのデータストリームに影響を与えるデータ分布の変化を指す。
その結果、データストリーム上で動作する学習モデルは時代遅れになり、再トレーニングや適応のようなコストがかかり難しい調整が必要になる。
概念ドリフトに対処する既存の方法は、通常、アクティブまたはパッシブに分類される。
前者は漸進学習を用いてモデルを継続的に適応し、後者はドリフト検出機構がアラームをトリガーするときに完全なモデル再訓練を行う。
我々は伝統的な道から出発し、コンセプトドリフトの効果を「解き放つ」代替アプローチを初めて提案する。
具体的には,データ上で動作する学習モデルの再トレーニングや適応を必要とせず,教師なしの方法で概念ドリフトを"アンラーニング"するオートエンコーダベースの手法を提案する。
関連論文リスト
- Diffusion-based Neural Network Weights Generation [85.6725307453325]
データセット条件付き事前学習重み抽出による効率よく適応的な伝達学習手法を提案する。
具体的には、ニューラルネットワークの重みを再構築できる変分オートエンコーダを備えた潜時拡散モデルを用いる。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - MORPH: Towards Automated Concept Drift Adaptation for Malware Detection [0.7499722271664147]
コンセプトドリフトはマルウェア検出にとって重要な課題である。
自己学習は、コンセプトドリフトを緩和するための有望なアプローチとして現れています。
擬似ラベルに基づく効果的なドリフト適応法であるMORPHを提案する。
論文 参考訳(メタデータ) (2024-01-23T14:25:43Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Unsupervised Discovery of Interpretable Directions in h-space of
Pre-trained Diffusion Models [63.1637853118899]
本稿では,事前学習した拡散モデルのh空間における解釈可能な方向を特定するための,教師なしおよび学習に基づく最初の手法を提案する。
我々は、事前訓練された拡散モデルのh-スペースで動作するシフト制御モジュールを用いて、サンプルをシフトしたバージョンに操作する。
それらを共同で最適化することで、モデルは自然に絡み合った、解釈可能な方向を発見する。
論文 参考訳(メタデータ) (2023-10-15T18:44:30Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Autoregressive based Drift Detection Method [0.0]
我々はADDMと呼ばれる自己回帰モデルに基づく新しい概念ドリフト検出手法を提案する。
以上の結果から,新しいドリフト検出法は最先端ドリフト検出法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-09T14:36:16Z) - Employing chunk size adaptation to overcome concept drift [2.277447144331876]
ブロックベースのデータストリーム分類アルゴリズムに適応可能な新しいチャンク適応復元フレームワークを提案する。
提案アルゴリズムは,概念ドリフト検出時のデータチャンクサイズを調整し,その変更が使用済みモデルの予測性能に与える影響を最小限に抑える。
論文 参考訳(メタデータ) (2021-10-25T12:36:22Z) - Asynchronous Federated Learning for Sensor Data with Concept Drift [17.390098048134195]
フェデレートラーニング(FL)では、複数の分散デバイスが共有モデルを共同でトレーニングする。
以前のFLアプローチのほとんどは、トレーニングプロセス中にデバイス上のデータが固定され、静止していると仮定している。
コンセプトドリフトは、既存のデータと今後のデータの間に矛盾があるため、学習プロセスを複雑にします。
本稿では,ローカルデバイス上でのドリフトを検知し,対処するための新しいアプローチであるFedConDを提案する。
論文 参考訳(メタデータ) (2021-09-01T02:06:42Z) - Learning Parameter Distributions to Detect Concept Drift in Data Streams [13.20231558027132]
実コンセプトドリフト検出のための新しいフレームワークであるERICSを提案する。
予測モデルのパラメータをランダム変数として扱うことにより、最適パラメータの分布の変化に対応する概念ドリフトが示される。
ERICSはまた、既存のアプローチよりも大きな利点である入力レベルで概念ドリフトを検出することができる。
論文 参考訳(メタデータ) (2020-10-19T11:19:16Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。