論文の概要: Drift-Aware Multi-Memory Model for Imbalanced Data Streams
- arxiv url: http://arxiv.org/abs/2012.14791v1
- Date: Tue, 29 Dec 2020 15:06:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 20:48:00.118165
- Title: Drift-Aware Multi-Memory Model for Imbalanced Data Streams
- Title(参考訳): 不均衡データストリームのためのドリフトアウェアマルチメモリモデル
- Authors: Amir Abolfazli and Eirini Ntoutsi
- Abstract要約: メモリベースモデルのオンライン学習におけるクラスアンバランス問題に対処するために,Drift-Aware Multi-Memory Model (DAM3)を提案する。
dam3は、不均衡感受性ドリフト検出器を内蔵し、モデル内のクラスのバランスのとれた表現を保存し、ワーキングメモリを用いた遡及的干渉を解決することで、クラス不均衡を緩和する。
実世界および合成データセットの実験を通じて,提案手法がクラス不均衡を緩和し,最新手法を上回っていることを示した。
- 参考スコア(独自算出の注目度): 5.71097144710995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online class imbalance learning deals with data streams that are affected by
both concept drift and class imbalance. Online learning tries to find a
trade-off between exploiting previously learned information and incorporating
new information into the model. This requires both the incremental update of
the model and the ability to unlearn outdated information. The improper use of
unlearning, however, can lead to the retroactive interference problem, a
phenomenon that occurs when newly learned information interferes with the old
information and impedes the recall of previously learned information. The
problem becomes more severe when the classes are not equally represented,
resulting in the removal of minority information from the model. In this work,
we propose the Drift-Aware Multi-Memory Model (DAM3), which addresses the class
imbalance problem in online learning for memory-based models. DAM3 mitigates
class imbalance by incorporating an imbalance-sensitive drift detector,
preserving a balanced representation of classes in the model, and resolving
retroactive interference using a working memory that prevents the forgetting of
old information. We show through experiments on real-world and synthetic
datasets that the proposed method mitigates class imbalance and outperforms the
state-of-the-art methods.
- Abstract(参考訳): オンラインクラス不均衡学習は、コンセプトドリフトとクラス不均衡の両方に影響されるデータストリームを扱う。
オンライン学習は、以前に学習した情報を活用し、新しい情報をモデルに組み込むトレードオフを見つけようとする。
これにより、モデルの漸進的な更新と、古い情報を解き放つ能力の両方が必要になる。
しかし、アンラーニングの不適切な使用は、新たに学習した情報が古い情報に干渉し、以前に学習した情報のリコールを妨げる現象である遡及的干渉問題を引き起こす可能性がある。
クラスが等しく表現されない場合、問題はより深刻になり、モデルからマイノリティ情報を排除することになる。
本研究では,メモリベースモデルにおけるオンライン学習におけるクラス不均衡問題に対処する,ドリフトアウェアマルチメモリモデル(dam3)を提案する。
dam3は、不均衡感応ドリフト検出器を内蔵し、モデル内のクラスのバランスのとれた表現を保持し、古い情報を忘れるのを防ぐワーキングメモリを用いて、遡及的干渉を解決することで、クラス不均衡を軽減する。
本研究では,実世界および合成データセットを用いた実験を通じて,提案手法がクラス不均衡を緩和し,最先端手法を上回ることを示した。
関連論文リスト
- Machine Unlearning on Pre-trained Models by Residual Feature Alignment Using LoRA [15.542668474378633]
本稿では,事前学習モデルを用いた新しい機械学習手法を提案する。
LoRAを利用して、モデルの中間機能を事前訓練された特徴と残像に分解する。
本手法は,保持集合上のゼロ残差を学習し,未学習集合上でシフト残差を学習することを目的としている。
論文 参考訳(メタデータ) (2024-11-13T08:56:35Z) - Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - Federated Unlearning via Active Forgetting [24.060724751342047]
インクリメンタルラーニングに基づく新しいフェデレーション・アンラーニング・フレームワークを提案する。
我々のフレームワークは、近似的再学習やデータ影響推定に依存する既存の非学習手法とは異なる。
論文 参考訳(メタデータ) (2023-07-07T03:07:26Z) - Meta-Learning Online Adaptation of Language Models [88.8947656843812]
大規模言語モデルは、そのパラメータにおける驚くほど広い世界の知識を符号化する。
しかし、静的言語モデルの知識は時代遅れになり、モデルの効果的な「シェルフライフ」が制限される。
論文 参考訳(メタデータ) (2023-05-24T11:56:20Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Certifiable Machine Unlearning for Linear Models [1.484852576248587]
機械学習は、トレーニングされたトレーニングデータのサブセットが削除された後、機械学習(ML)モデルを更新するタスクである。
本稿では,線形モデルに対する3つの非学習手法について実験的に検討する。
論文 参考訳(メタデータ) (2021-06-29T05:05:58Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z) - Learning to Reweight with Deep Interactions [104.68509759134878]
本稿では,教師モデルに内部状態を提供する改良型データ再重み付けアルゴリズムを提案する。
クリーン/ノイズラベルとニューラルマシン翻訳を用いた画像分類実験は、我々のアルゴリズムが従来の手法よりも大幅に改善されていることを実証的に実証した。
論文 参考訳(メタデータ) (2020-07-09T09:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。