論文の概要: Instance exploitation for learning temporary concepts from sparsely
labeled drifting data streams
- arxiv url: http://arxiv.org/abs/2009.09382v1
- Date: Sun, 20 Sep 2020 08:11:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 12:45:03.531613
- Title: Instance exploitation for learning temporary concepts from sparsely
labeled drifting data streams
- Title(参考訳): 疎ラベルドリフトデータストリームからの一時的概念学習のためのインスタンス利用
- Authors: {\L}ukasz Korycki and Bartosz Krawczyk
- Abstract要約: ストリーミングデータソースからの継続的な学習がますます人気を博している。
動的で絶え間ない問題に対処することは 新たな課題を引き起こします
最も重要な制限の1つは、有限で完全なデータセットにアクセスできないことである。
- 参考スコア(独自算出の注目度): 15.49323098362628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning from streaming data sources becomes more and more popular
due to the increasing number of online tools and systems. Dealing with dynamic
and everlasting problems poses new challenges for which traditional batch-based
offline algorithms turn out to be insufficient in terms of computational time
and predictive performance. One of the most crucial limitations is that we
cannot assume having access to a finite and complete data set - we always have
to be ready for new data that may complement our model. This poses a critical
problem of providing labels for potentially unbounded streams. In the real
world, we are forced to deal with very strict budget limitations, therefore, we
will most likely face the scarcity of annotated instances, which are essential
in supervised learning. In our work, we emphasize this problem and propose a
novel instance exploitation technique. We show that when: (i) data is
characterized by temporary non-stationary concepts, and (ii) there are very few
labels spanned across a long time horizon, it is actually better to risk
overfitting and adapt models more aggressively by exploiting the only labeled
instances we have, instead of sticking to a standard learning mode and
suffering from severe underfitting. We present different strategies and
configurations for our methods, as well as an ensemble algorithm that attempts
to maintain a sweet spot between risky and normal adaptation. Finally, we
conduct a complex in-depth comparative analysis of our methods, using
state-of-the-art streaming algorithms relevant to the given problem.
- Abstract(参考訳): オンラインツールやシステムの増加により,ストリーミングデータソースからの継続的学習がますます普及している。
動的で永続的な問題への対処は、従来のバッチベースのオフラインアルゴリズムが計算時間と予測性能の面で不十分であることが判明する新たな課題を引き起こす。
最も重要な制限の1つは、有限で完全なデータセットにアクセスすることができないということです。
これは、潜在的に非有界なストリームにラベルを提供するという重大な問題を引き起こす。
現実の世界では、非常に厳格な予算制限に対処せざるを得ないので、教師あり学習に不可欠な注釈付きインスタンスの不足に直面している可能性が高い。
本研究では,この問題を強調し,新しいインスタンス利用手法を提案する。
以下に示すのは
i)データは一時的な非定常概念によって特徴づけられ、
(ii)長い時間軸にまたがるラベルはごくわずかですが、標準の学習モードに固執し、厳しい不適合に苦しむのではなく、私たちが持っている唯一のラベル付きインスタンスを活用することで、より積極的にモデルに過剰フィットし、適応するリスクを負う方が良いのです。
我々は,リスクと正規適応の間のスイートスポットを維持しようとするアンサンブルアルゴリズムとともに,手法の異なる戦略と構成を提案する。
最後に,与えられた問題に関連する最先端のストリーミングアルゴリズムを用いて,提案手法の複雑な詳細な比較分析を行う。
関連論文リスト
- Federated Continual Learning Goes Online: Uncertainty-Aware Memory Management for Vision Tasks and Beyond [13.867793835583463]
本稿では,破滅的な記憶を解消するための不確実性を考慮したメモリベース手法を提案する。
特定の特性を持つサンプルを検索し、そのようなサンプル上でモデルを再訓練することで、このアプローチの可能性を実証する。
論文 参考訳(メタデータ) (2024-05-29T09:29:39Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Large-scale Pre-trained Models are Surprisingly Strong in Incremental Novel Class Discovery [76.63807209414789]
我々は,クラスiNCDにおける現状問題に挑戦し,クラス発見を継続的に,真に教師なしで行う学習パラダイムを提案する。
凍結したPTMバックボーンと学習可能な線形分類器から構成される単純なベースラインを提案する。
論文 参考訳(メタデータ) (2023-03-28T13:47:16Z) - Learning from Data Streams: An Overview and Update [1.5076964620370268]
教師付きデータストリーム学習の基本的定義と設定を再構築する。
教師付きデータストリーム学習タスクを構成するものについて、新たに検討する。
データストリームから学ぶことは、シングルパスやオンライン学習のアプローチを強制しない、という点が主な重点です。
論文 参考訳(メタデータ) (2022-12-30T14:01:41Z) - Nonstationary data stream classification with online active learning and
siamese neural networks [11.501721946030779]
予測モデルをオンザフライでトレーニングするオンライン学習方法に対する新たなニーズ。
しかし、一連のオープンな課題は、実際にデプロイを妨げている。
本稿では,オンラインアクティブラーニング,シアムネットワーク,マルチキューメモリを組み合わせることで,これらの課題に対処するActiSiameseアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-03T17:16:03Z) - Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification [83.23129279407271]
本稿では,有価証券のセットで事前学習したニューラルネットワークで利用可能な知識を効率的に保持する手法を提案する。
本手法では,既存の接続を固定することにより,事前学習したニューラルネットワークに符号化された事前知識を維持する。
この知識は、新しいデータを用いて最適化された一連の拡張接続によって、新しい証券に対して調整される。
論文 参考訳(メタデータ) (2022-07-23T18:54:10Z) - Continual Few-shot Relation Learning via Embedding Space Regularization
and Data Augmentation [4.111899441919165]
従来のタスク知識の破滅的な忘れを回避しつつ,ラベル付きデータが少ない新しい関係パターンを学習する必要がある。
埋め込み空間の正規化とデータ拡張に基づく新しい手法を提案する。
提案手法は,新たな数発タスクに一般化し,リレーショナル埋め込みに対する追加制約を課し,自己管理的なデータ追加を行うことにより,過去のタスクの破滅的な忘れを回避している。
論文 参考訳(メタデータ) (2022-03-04T05:19:09Z) - Mining Drifting Data Streams on a Budget: Combining Active Learning with
Self-Labeling [6.436899373275926]
本稿では,アクティブラーニングと自己ラベルによる情報を組み合わせることで,ドリフトするデータストリームを予算でマイニングする新しいフレームワークを提案する。
我々は,概念ドリフトの可能性を考慮して,インテリジェントなインスタンス選択と半教師付き手順の両方を活用できる戦略をいくつか導入する。
論文 参考訳(メタデータ) (2021-12-21T07:19:35Z) - Constrained Learning with Non-Convex Losses [119.8736858597118]
学習は現代の情報処理の中核技術になっているが、バイアス、安全でない、偏見のあるソリューションにつながるという証拠はたくさんある。
論文 参考訳(メタデータ) (2021-03-08T23:10:33Z) - Semi-Supervised Learning with Meta-Gradient [123.26748223837802]
半教師付き学習における簡単なメタ学習アルゴリズムを提案する。
その結果,提案アルゴリズムは最先端の手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-07-08T08:48:56Z) - Differentiable Causal Discovery from Interventional Data [141.41931444927184]
本稿では、介入データを活用可能なニューラルネットワークに基づく理論的基盤化手法を提案する。
提案手法は,様々な環境下での美術品の状態と良好に比較できることを示す。
論文 参考訳(メタデータ) (2020-07-03T15:19:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。