論文の概要: Online Learning With Adaptive Rebalancing in Nonstationary Environments
- arxiv url: http://arxiv.org/abs/2009.11942v1
- Date: Thu, 24 Sep 2020 20:40:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 04:24:10.936612
- Title: Online Learning With Adaptive Rebalancing in Nonstationary Environments
- Title(参考訳): 非定常環境における適応的リバランシングによるオンライン学習
- Authors: Kleanthis Malialis and Christos G. Panayiotou and Marios M. Polycarpou
- Abstract要約: オンライン学習における非定常データと不均衡データからの学習に関する新たな洞察を提供する。
本稿では,AREBA(Adaptive REBAlancing)アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 11.501721946030779
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An enormous and ever-growing volume of data is nowadays becoming available in
a sequential fashion in various real-world applications. Learning in
nonstationary environments constitutes a major challenge, and this problem
becomes orders of magnitude more complex in the presence of class imbalance. We
provide new insights into learning from nonstationary and imbalanced data in
online learning, a largely unexplored area. We propose the novel Adaptive
REBAlancing (AREBA) algorithm that selectively includes in the training set a
subset of the majority and minority examples that appeared so far, while at its
heart lies an adaptive mechanism to continually maintain the class balance
between the selected examples. We compare AREBA with strong baselines and other
state-of-the-art algorithms and perform extensive experimental work in
scenarios with various class imbalance rates and different concept drift types
on both synthetic and real-world data. AREBA significantly outperforms the rest
with respect to both learning speed and learning quality. Our code is made
publicly available to the scientific community.
- Abstract(参考訳): 膨大な量のデータが、今や様々な現実世界のアプリケーションでシーケンシャルに利用できるようになった。
非定常環境での学習は大きな課題であり、この問題はクラス不均衡の存在下では桁違いに複雑になる。
オンライン学習における非定常データと不均衡データからの学習に関する新たな洞察を提供する。
本稿では,AREBA(Adaptive REBAlancing)アルゴリズムを提案する。AREBA(Adaptive REBAlancing)アルゴリズムは,これまでに出現した多数例と少数例のサブセットを選択的に含んでおり,その中心には,選択した例間のクラスバランスを継続的に維持する適応機構がある。
AREBAを強力なベースラインや他の最先端アルゴリズムと比較し、様々なクラス不均衡率と実世界のデータに異なる概念ドリフトタイプを持つシナリオで広範な実験を行う。
AREBAは学習速度と学習品質の両方において、残りの部分よりも大幅に優れています。
私たちのコードは科学コミュニティに公開されています。
関連論文リスト
- Efficient Imitation Learning with Conservative World Models [54.52140201148341]
報酬機能のない専門家によるデモンストレーションから政策学習の課題に取り組む。
純粋な強化学習ではなく、微調整問題として模倣学習を再構成する。
論文 参考訳(メタデータ) (2024-05-21T20:53:18Z) - A Survey of Deep Long-Tail Classification Advancements [1.6233132273470656]
実世界の多くのデータ分布は、ほとんど均一ではない。代わりに、様々な種類の歪んだ、長い尾の分布がよく見られる。
これは機械学習にとって興味深い問題であり、ほとんどのアルゴリズムが均一に分散されたデータを想定したり、うまく機能する。
この問題は、大量のトレーニングデータを必要とする現在の最先端のディープラーニングモデルによってさらに悪化している。
論文 参考訳(メタデータ) (2024-04-24T01:59:02Z) - Time Will Change Things: An Empirical Study on Dynamic Language
Understanding in Social Media Classification [5.075802830306718]
我々は、実験的にソーシャルメディアのNLUを動的に研究し、モデルが過去のデータに基づいてトレーニングされ、将来のテストが行われる。
自動エンコーディングと擬似ラベルが協調して、動的性の最良の堅牢性を示すことを示す。
論文 参考訳(メタデータ) (2022-10-06T12:18:28Z) - Nonstationary data stream classification with online active learning and
siamese neural networks [11.501721946030779]
予測モデルをオンザフライでトレーニングするオンライン学習方法に対する新たなニーズ。
しかし、一連のオープンな課題は、実際にデプロイを妨げている。
本稿では,オンラインアクティブラーニング,シアムネットワーク,マルチキューメモリを組み合わせることで,これらの課題に対処するActiSiameseアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-03T17:16:03Z) - Deep Reinforcement Learning for Multi-class Imbalanced Training [64.9100301614621]
我々は、極めて不均衡なデータセットをトレーニングするために、強化学習に基づく不均衡な分類フレームワークを導入する。
特注報酬関数とエピソード学習手順を定式化し、特にマルチクラス不均衡トレーニングを扱えるようにした。
実世界の臨床ケーススタディを用いて,提案手法が現状の非バランス学習法より優れていることを示す。
論文 参考訳(メタデータ) (2022-05-24T13:39:59Z) - ASE: Anomaly Scoring Based Ensemble Learning for Imbalanced Datasets [3.214208422566496]
そこで我々は,異常検出スコアリングシステムに基づくバギングアンサンブル学習フレームワークを考案した。
我々のアンサンブル学習モデルは,ベース推定器の性能を劇的に向上させることができる。
論文 参考訳(メタデータ) (2022-03-21T07:20:41Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Data-efficient Online Classification with Siamese Networks and Active
Learning [11.501721946030779]
オンライン分類におけるラベル付き・非定常・不均衡データからの学習について検討する。
本研究では,シアムニューラルネットワークとアクティブラーニングを相乗的に組み合わせた学習手法を提案する。
提案手法はデータの非定常性と不均衡に対して頑健であり,学習速度と性能の両面で,ベースラインと最先端アルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2020-10-04T19:07:19Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。