論文の概要: Drift-Aware Multi-Memory Model for Imbalanced Data Streams
- arxiv url: http://arxiv.org/abs/2012.14791v1
- Date: Tue, 29 Dec 2020 15:06:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 20:48:00.118165
- Title: Drift-Aware Multi-Memory Model for Imbalanced Data Streams
- Title(参考訳): 不均衡データストリームのためのドリフトアウェアマルチメモリモデル
- Authors: Amir Abolfazli and Eirini Ntoutsi
- Abstract要約: メモリベースモデルのオンライン学習におけるクラスアンバランス問題に対処するために,Drift-Aware Multi-Memory Model (DAM3)を提案する。
dam3は、不均衡感受性ドリフト検出器を内蔵し、モデル内のクラスのバランスのとれた表現を保存し、ワーキングメモリを用いた遡及的干渉を解決することで、クラス不均衡を緩和する。
実世界および合成データセットの実験を通じて,提案手法がクラス不均衡を緩和し,最新手法を上回っていることを示した。
- 参考スコア(独自算出の注目度): 5.71097144710995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online class imbalance learning deals with data streams that are affected by
both concept drift and class imbalance. Online learning tries to find a
trade-off between exploiting previously learned information and incorporating
new information into the model. This requires both the incremental update of
the model and the ability to unlearn outdated information. The improper use of
unlearning, however, can lead to the retroactive interference problem, a
phenomenon that occurs when newly learned information interferes with the old
information and impedes the recall of previously learned information. The
problem becomes more severe when the classes are not equally represented,
resulting in the removal of minority information from the model. In this work,
we propose the Drift-Aware Multi-Memory Model (DAM3), which addresses the class
imbalance problem in online learning for memory-based models. DAM3 mitigates
class imbalance by incorporating an imbalance-sensitive drift detector,
preserving a balanced representation of classes in the model, and resolving
retroactive interference using a working memory that prevents the forgetting of
old information. We show through experiments on real-world and synthetic
datasets that the proposed method mitigates class imbalance and outperforms the
state-of-the-art methods.
- Abstract(参考訳): オンラインクラス不均衡学習は、コンセプトドリフトとクラス不均衡の両方に影響されるデータストリームを扱う。
オンライン学習は、以前に学習した情報を活用し、新しい情報をモデルに組み込むトレードオフを見つけようとする。
これにより、モデルの漸進的な更新と、古い情報を解き放つ能力の両方が必要になる。
しかし、アンラーニングの不適切な使用は、新たに学習した情報が古い情報に干渉し、以前に学習した情報のリコールを妨げる現象である遡及的干渉問題を引き起こす可能性がある。
クラスが等しく表現されない場合、問題はより深刻になり、モデルからマイノリティ情報を排除することになる。
本研究では,メモリベースモデルにおけるオンライン学習におけるクラス不均衡問題に対処する,ドリフトアウェアマルチメモリモデル(dam3)を提案する。
dam3は、不均衡感応ドリフト検出器を内蔵し、モデル内のクラスのバランスのとれた表現を保持し、古い情報を忘れるのを防ぐワーキングメモリを用いて、遡及的干渉を解決することで、クラス不均衡を軽減する。
本研究では,実世界および合成データセットを用いた実験を通じて,提案手法がクラス不均衡を緩和し,最先端手法を上回ることを示した。
関連論文リスト
- Multi-Granularity Regularized Re-Balancing for Class Incremental
Learning [32.52884416761171]
ディープラーニングモデルは、新しいタスクを学ぶときに破滅的な忘れに苦しむ。
古いクラスと新しいクラスのデータの不均衡は、モデルのパフォーマンスが低下する鍵となる問題である。
この問題を解決するために,仮定に依存しないマルチグラニュラリティ正規化再バランシング法を提案する。
論文 参考訳(メタデータ) (2022-06-30T11:04:51Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Fast Yet Effective Machine Unlearning [4.631675702859428]
本稿では,誤り最大化雑音発生と不適切な反動に基づく重み操作を併用した新しい機械学習フレームワークを提案する。
モデル全体の精度を著しく保ちながら、優れた未学習を示す。
この作業は、ディープネットワークにおけるアンラーニングの迅速かつ簡単な実装に向けた重要なステップである。
論文 参考訳(メタデータ) (2021-11-17T07:29:24Z) - Machine Unlearning of Features and Labels [72.23482501324517]
本稿では、影響関数の概念に基づいて、モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
これにより、学習モデルにトレーニングデータの影響を遡及的に適用し、データ漏洩を修正することができる。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Certifiable Machine Unlearning for Linear Models [1.484852576248587]
機械学習は、トレーニングされたトレーニングデータのサブセットが削除された後、機械学習(ML)モデルを更新するタスクである。
本稿では,線形モデルに対する3つの非学習手法について実験的に検討する。
論文 参考訳(メタデータ) (2021-06-29T05:05:58Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Reducing Representation Drift in Online Continual Learning [87.71558506591937]
私たちは、エージェントが制限されたメモリと計算で変化する分布から学ぶ必要があるオンライン連続学習パラダイムを研究します。
この作業では、入ってくるデータストリームに未観測のクラスサンプルが導入されることにより、事前に観測されたデータの表現の変化に焦点を合わせます。
論文 参考訳(メタデータ) (2021-04-11T15:19:30Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Using Data Assimilation to Train a Hybrid Forecast System that Combines
Machine-Learning and Knowledge-Based Components [52.77024349608834]
利用可能なデータがノイズの多い部分測定の場合,カオスダイナミクスシステムのデータ支援予測の問題を検討する。
動的システムの状態の部分的測定を用いることで、不完全な知識ベースモデルによる予測を改善するために機械学習モデルを訓練できることを示す。
論文 参考訳(メタデータ) (2021-02-15T19:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。