論文の概要: Data augmentation on-the-fly and active learning in data stream
classification
- arxiv url: http://arxiv.org/abs/2210.06873v1
- Date: Thu, 13 Oct 2022 09:57:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 17:00:47.404158
- Title: Data augmentation on-the-fly and active learning in data stream
classification
- Title(参考訳): データストリーム分類におけるオンザフライ学習とアクティブラーニング
- Authors: Kleanthis Malialis and Dimitris Papatheodoulou and Stylianos Filippou
and Christos G. Panayiotou and Marios M. Polycarpou
- Abstract要約: 予測モデルをオンザフライでトレーニングする必要性が高まっている。
学習モデルは、アクティブな学習予算を増やすことなく、より多くのラベル付きデータにアクセスすることができる。
Augmented Queuesは、学習の質とスピードに関して、パフォーマンスを著しく向上させる。
- 参考スコア(独自算出の注目度): 9.367903089535684
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: There is an emerging need for predictive models to be trained on-the-fly,
since in numerous machine learning applications data are arriving in an online
fashion. A critical challenge encountered is that of limited availability of
ground truth information (e.g., labels in classification tasks) as new data are
observed one-by-one online, while another significant challenge is that of
class imbalance. This work introduces the novel Augmented Queues method, which
addresses the dual-problem by combining in a synergistic manner online active
learning, data augmentation, and a multi-queue memory to maintain separate and
balanced queues for each class. We perform an extensive experimental study
using image and time-series augmentations, in which we examine the roles of the
active learning budget, memory size, imbalance level, and neural network type.
We demonstrate two major advantages of Augmented Queues. First, it does not
reserve additional memory space as the generation of synthetic data occurs only
at training times. Second, learning models have access to more labelled data
without the need to increase the active learning budget and / or the original
memory size. Learning on-the-fly poses major challenges which, typically,
hinder the deployment of learning models. Augmented Queues significantly
improves the performance in terms of learning quality and speed. Our code is
made publicly available.
- Abstract(参考訳): 多くの機械学習アプリケーションでは、データがオンラインの方法でやってくるため、予測モデルをオンザフライでトレーニングする必要がある。
直面した重要な課題は、新しいデータがオンラインで一対一で観測されるため、基礎的真理情報(例えば分類タスクのラベル)が限られていることである。
本稿では,オンラインアクティブラーニング,データ拡張,マルチキューメモリを相乗的に組み合わせることで,クラス毎に分離・バランスのとれたキューを維持できる,新たな拡張キュー法を提案する。
我々は、画像と時系列の増大を用いた広範な実験を行い、アクティブラーニング予算、メモリサイズ、不均衡レベル、ニューラルネットワークタイプの役割について検討した。
Augmented Queuesの2つの大きな利点を示します。
まず、合成データの生成はトレーニング時にのみ発生するため、追加のメモリ空間を予約しない。
第二に、学習モデルはアクティブな学習予算や/または元のメモリサイズを増やすことなく、より多くのラベル付きデータにアクセスすることができる。
オンザフライでの学習は、通常、学習モデルの展開を妨げる大きな課題となる。
Augmented Queuesは、学習の質とスピードに関して、パフォーマンスを大幅に改善する。
私たちのコードは公開されています。
関連論文リスト
- Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Offline Q-Learning on Diverse Multi-Task Data Both Scales And
Generalizes [100.69714600180895]
オフラインのQ-ラーニングアルゴリズムは、モデルキャパシティでスケールする強力なパフォーマンスを示す。
最大8000万のパラメータネットワークを用いて,40のゲームに対してほぼ人間に近いパフォーマンスで1つのポリシーをトレーニングする。
リターン条件付き教師付きアプローチと比較して、オフラインQラーニングはモデルキャパシティと同様にスケールし、特にデータセットが最適以下である場合にはパフォーマンスが向上する。
論文 参考訳(メタデータ) (2022-11-28T08:56:42Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Nonstationary data stream classification with online active learning and
siamese neural networks [11.501721946030779]
予測モデルをオンザフライでトレーニングするオンライン学習方法に対する新たなニーズ。
しかし、一連のオープンな課題は、実際にデプロイを妨げている。
本稿では,オンラインアクティブラーニング,シアムネットワーク,マルチキューメモリを組み合わせることで,これらの課題に対処するActiSiameseアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-03T17:16:03Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Parrot: Data-Driven Behavioral Priors for Reinforcement Learning [79.32403825036792]
そこで本研究では,実験で得られた複雑なインプット・アウトプット関係を事前に学習する手法を提案する。
RLエージェントが新規な動作を試す能力を阻害することなく、この学習が新しいタスクを迅速に学習するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-11-19T18:47:40Z) - Data-efficient Online Classification with Siamese Networks and Active
Learning [11.501721946030779]
オンライン分類におけるラベル付き・非定常・不均衡データからの学習について検討する。
本研究では,シアムニューラルネットワークとアクティブラーニングを相乗的に組み合わせた学習手法を提案する。
提案手法はデータの非定常性と不均衡に対して頑健であり,学習速度と性能の両面で,ベースラインと最先端アルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2020-10-04T19:07:19Z) - Continual Prototype Evolution: Learning Online from Non-Stationary Data
Streams [42.525141660788]
任意の時点で学習と予測を可能にするシステムを導入する。
継続的な学習における主要な仕事とは対照的に、データストリームはオンライン形式で処理される。
我々は,高度にバランスの取れない3つのデータストリームを含む8つのベンチマークで,最先端のパフォーマンスを顕著に比較した。
論文 参考訳(メタデータ) (2020-09-02T09:39:26Z) - A Survey on Self-supervised Pre-training for Sequential Transfer
Learning in Neural Networks [1.1802674324027231]
移動学習のための自己教師付き事前学習は、ラベルのないデータを用いて最先端の結果を改善する技術として、ますます人気が高まっている。
本稿では,自己指導型学習と伝達学習の分類学の概要を述べるとともに,各領域にまたがる事前学習タスクを設計するためのいくつかの顕著な手法を強調した。
論文 参考訳(メタデータ) (2020-07-01T22:55:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。