論文の概要: Combining self-labeling and demand based active learning for
non-stationary data streams
- arxiv url: http://arxiv.org/abs/2302.04141v1
- Date: Wed, 8 Feb 2023 15:38:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 15:43:15.616627
- Title: Combining self-labeling and demand based active learning for
non-stationary data streams
- Title(参考訳): 非定常データストリームに対する自己ラベルと需要に基づくアクティブラーニングの組み合わせ
- Authors: Valerie Vaquet, Fabian Hinder, Johannes Brinkrolf, and Barbara Hammer
- Abstract要約: 非定常データストリームからの学習は、ストリーム形式でより多くのデータが利用可能になるにつれて、関心が高まる研究方向である。
殆どのアプローチは、サンプルの基礎的真実が利用可能となり、テストテーマトレイン方式で教師付きオンライン学習を行うと仮定している。
本研究では,少ないラベル付きデータストリームに着目し,徐々に漂流するデータストリームにおける自己ラベル化の可能性を探る。
- 参考スコア(独自算出の注目度): 7.951705533903104
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Learning from non-stationary data streams is a research direction that gains
increasing interest as more data in form of streams becomes available, for
example from social media, smartphones, or industrial process monitoring. Most
approaches assume that the ground truth of the samples becomes available
(possibly with some delay) and perform supervised online learning in the
test-then-train scheme. While this assumption might be valid in some scenarios,
it does not apply to all settings. In this work, we focus on scarcely labeled
data streams and explore the potential of self-labeling in gradually drifting
data streams. We formalize this setup and propose a novel online $k$-nn
classifier that combines self-labeling and demand-based active learning.
- Abstract(参考訳): 非定常データストリームからの学習は、ソーシャルメディアやスマートフォン、産業プロセスの監視など、ストリーム形式のより多くのデータが利用可能になるにつれて、関心が高まる研究方向である。
ほとんどのアプローチでは、サンプルの基礎的真理が利用可能になり(おそらく多少の遅れがある)、テストテーマトレイン方式で教師付きオンライン学習を行う。
この仮定はいくつかのシナリオで有効かもしれませんが、すべての設定に適用できません。
本研究では,少ないラベル付きデータストリームに着目し,徐々に漂流するデータストリームにおける自己ラベル化の可能性を探る。
我々はこの設定を形式化し、自己ラベルと需要に基づくアクティブラーニングを組み合わせた新しいオンライン$k$-nn分類器を提案する。
関連論文リスト
- RPS: A Generic Reservoir Patterns Sampler [1.09784964592609]
本稿では,ストリーミングバッチデータからの直接パターンサンプリングを容易にするために,重み付き貯水池を利用する手法を提案する。
本稿では、時間的バイアスに対処し、逐次的、重み付け、および非重み付けを含む様々なパターンタイプを処理できる汎用アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-31T16:25:21Z) - Reinforcement Learning from Passive Data via Latent Intentions [86.4969514480008]
我々は、下流RLを加速する機能を学ぶために、受動的データが引き続き使用できることを示す。
我々のアプローチは、意図をモデル化することで受動的データから学習する。
実験では、クロス・エボディメント・ビデオデータやYouTubeビデオなど、さまざまな形式の受動的データから学習できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:59:05Z) - Active learning for data streams: a survey [0.48951183832371004]
オンラインアクティブな学習は機械学習のパラダイムであり、データストリームからラベルに最も情報のあるデータポイントを選択することを目的としている。
それぞれの観測に注釈をつけるのは時間と費用がかかり、大量のラベル付きデータを得るのが難しくなる。
本研究の目的は、データストリームから最も情報性の高い観測をリアルタイムで選択するための、最近提案されたアプローチの概要を提供することである。
論文 参考訳(メタデータ) (2023-02-17T14:24:13Z) - Reinforced Meta Active Learning [11.913086438671357]
本稿では,データから直接情報提供度を学習する,オンラインストリームに基づくメタアクティブ学習手法を提案する。
本手法は、強化学習に基づいて、エピソードポリシー検索と文脈的バンディットアプローチを組み合わせたものである。
本研究では,本手法が既存の最先端手法よりも効率的にトレーニングサンプルを選択できることを実データで示す。
論文 参考訳(メタデータ) (2022-03-09T08:36:54Z) - Mining Drifting Data Streams on a Budget: Combining Active Learning with
Self-Labeling [6.436899373275926]
本稿では,アクティブラーニングと自己ラベルによる情報を組み合わせることで,ドリフトするデータストリームを予算でマイニングする新しいフレームワークを提案する。
我々は,概念ドリフトの可能性を考慮して,インテリジェントなインスタンス選択と半教師付き手順の両方を活用できる戦略をいくつか導入する。
論文 参考訳(メタデータ) (2021-12-21T07:19:35Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Automated Machine Learning Techniques for Data Streams [91.3755431537592]
本稿では、最先端のオープンソースAutoMLツールを調査し、ストリームから収集したデータに適用し、時間とともにパフォーマンスがどのように変化するかを測定する。
この結果から,既製のAutoMLツールで十分な結果が得られることが示されたが,概念ドリフトや検出,適応といった手法が適用されれば,予測精度を時間とともに維持することが可能になる。
論文 参考訳(メタデータ) (2021-06-14T11:42:46Z) - Diverse Complexity Measures for Dataset Curation in Self-driving [80.55417232642124]
トラフィックシーンの面白さを定量化する多様な基準を活用した新たなデータ選択手法を提案する。
実験の結果,提案するキュレーションパイプラインは,より汎用的で高いパフォーマンスをもたらすデータセットを選択できることが判明した。
論文 参考訳(メタデータ) (2021-01-16T23:45:02Z) - Learning to Count in the Crowd from Limited Labeled Data [109.2954525909007]
我々は,限られた数のラベル付きサンプルから参加者を数えることを学ぶことで,アノテーションの努力を減らすことに重点を置いている。
具体的には,未ラベルデータに対する擬似地下真理推定を含むガウス過程に基づく反復学習機構を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:17:01Z) - A Survey on Self-supervised Pre-training for Sequential Transfer
Learning in Neural Networks [1.1802674324027231]
移動学習のための自己教師付き事前学習は、ラベルのないデータを用いて最先端の結果を改善する技術として、ますます人気が高まっている。
本稿では,自己指導型学習と伝達学習の分類学の概要を述べるとともに,各領域にまたがる事前学習タスクを設計するためのいくつかの顕著な手法を強調した。
論文 参考訳(メタデータ) (2020-07-01T22:55:48Z) - How Useful is Self-Supervised Pretraining for Visual Tasks? [133.1984299177874]
我々は、総合的な合成データセットと下流タスクにまたがる様々な自己教師付きアルゴリズムを評価する。
我々の実験は、利用可能なラベルの数が増えるにつれて、セルフスーパービジョンの有用性がどう変化するかについての洞察を提供する。
論文 参考訳(メタデータ) (2020-03-31T16:03:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。