論文の概要: Storage Fit Learning with Feature Evolvable Streams
- arxiv url: http://arxiv.org/abs/2007.11280v3
- Date: Tue, 23 Feb 2021 07:27:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 22:12:15.507860
- Title: Storage Fit Learning with Feature Evolvable Streams
- Title(参考訳): 機能進化可能なストリームによるストレージフィット学習
- Authors: Bo-Jian Hou, Yu-Hu Yan, Peng Zhao and Zhi-Hua Zhou
- Abstract要約: ストレージフィールド機能進化型ストリーミング学習(SF$2$EL)を提案する。
我々のフレームワークは、ラベルのないデータで機能進化可能なストリームを学習する際に、その振る舞いを異なるストレージ予算に適合させることができる。
- 参考スコア(独自算出の注目度): 77.12891405919704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature evolvable learning has been widely studied in recent years where old
features will vanish and new features will emerge when learning with streams.
Conventional methods usually assume that a label will be revealed after
prediction at each time step. However, in practice, this assumption may not
hold whereas no label will be given at most time steps. A good solution is to
leverage the technique of manifold regularization to utilize the previous
similar data to assist the refinement of the online model. Nevertheless, this
approach needs to store all previous data which is impossible in learning with
streams that arrive sequentially in large volume. Thus we need a buffer to
store part of them. Considering that different devices may have different
storage budgets, the learning approaches should be flexible subject to the
storage budget limit. In this paper, we propose a new setting: Storage-Fit
Feature-Evolvable streaming Learning (SF$^2$EL) which incorporates the issue of
rarely-provided labels into feature evolution. Our framework is able to fit its
behavior to different storage budgets when learning with feature evolvable
streams with unlabeled data. Besides, both theoretical and empirical results
validate that our approach can preserve the merit of the original feature
evolvable learning i.e., can always track the best baseline and thus perform
well at any time step.
- Abstract(参考訳): 機能進化可能な学習は、古い機能が消え、ストリームで学ぶと新機能が出現する近年、広く研究されている。
従来の方法は、ラベルが各時間ステップで予測された後に現れると仮定する。
しかし、実際にはこの仮定は成り立たないが、ほとんどの時間ステップではラベルは与えられない。
良い解決策は、多様体の正則化のテクニックを利用して、以前の類似データを利用してオンラインモデルの改良を支援することである。
それにもかかわらず、このアプローチでは、大量のストリームを逐次到着させることで学習できないすべての過去のデータを格納する必要がある。
したがって、その一部を保存するバッファが必要です。
異なるデバイスが異なるストレージ予算を持つ可能性を考えると、学習アプローチはストレージ予算の制限に対して柔軟であるべきです。
本稿では,稀に提供されないラベルの問題を特徴進化に取り入れた,storage-fit feature-evolvable streaming learning (sf$^2$el)を提案する。
当社のフレームワークは,ラベルのないデータで進化可能なストリームを学習する場合,さまざまなストレージ予算にその動作を適合させることができます。
さらに、理論的および実証的な結果は、我々のアプローチが元の特徴進化学習のメリットを維持できること、すなわち、常に最高のベースラインを追跡でき、任意のステップでうまく機能できることを証明している。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Class incremental learning with probability dampening and cascaded gated classifier [4.285597067389559]
本稿では, Margin Dampening と Cascaded Scaling という新たな漸進正規化手法を提案する。
1つ目は、ソフト制約と知識蒸留のアプローチを組み合わせて、過去の知識を保存し、新しいパターンを忘れることを可能にします。
提案手法は,複数のベンチマークにおいて,確立されたベースラインで良好に動作することを示す。
論文 参考訳(メタデータ) (2024-02-02T09:33:07Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - Queried Unlabeled Data Improves and Robustifies Class-Incremental
Learning [133.39254981496146]
クラス増分学習(Class-incremental Learning, CIL)は、新たに追加されたクラスを学習することと、以前に学習したクラス知識を保存することの間の悪名高いジレンマに悩まされる。
我々は、連続学習において「自由」な外部ラベル付きデータクエリを活用することを提案する。
CIL-QUDを堅牢化したバージョンにシームレスに拡張する。
論文 参考訳(メタデータ) (2022-06-15T22:53:23Z) - Adaptive Online Incremental Learning for Evolving Data Streams [4.3386084277869505]
最初の大きな困難はコンセプトドリフトであり、つまり、ストリーミングデータの確率分布はデータが到着するにつれて変化する。
第二の難しさは、破滅的な忘れ、すなわち、新しい知識を学ぶ前に学んだことを忘れることです。
我々の研究はこの観察に基づいており、これらの困難を克服しようと試みている。
論文 参考訳(メタデータ) (2022-01-05T14:25:53Z) - Mining Drifting Data Streams on a Budget: Combining Active Learning with
Self-Labeling [6.436899373275926]
本稿では,アクティブラーニングと自己ラベルによる情報を組み合わせることで,ドリフトするデータストリームを予算でマイニングする新しいフレームワークを提案する。
我々は,概念ドリフトの可能性を考慮して,インテリジェントなインスタンス選択と半教師付き手順の両方を活用できる戦略をいくつか導入する。
論文 参考訳(メタデータ) (2021-12-21T07:19:35Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Class-Incremental Experience Replay for Continual Learning under Concept
Drift [6.436899373275926]
機械学習を扱う研究の2つの主な分野は、継続的学習とデータストリームマイニングである。
両タスクに対応可能な,新たな継続的学習手法を提案する。
論文 参考訳(メタデータ) (2021-04-24T02:36:38Z) - Partial Is Better Than All: Revisiting Fine-tuning Strategy for Few-shot
Learning [76.98364915566292]
一般的なプラクティスは、まずベースセット上でモデルをトレーニングし、その後、微調整によって新しいクラスに移行することである。
本稿では,基本モデル内の特定の層を凍結あるいは微調整することにより,部分的知識の伝達を提案する。
提案手法の有効性を実証するために, CUB と mini-ImageNet の広範な実験を行った。
論文 参考訳(メタデータ) (2021-02-08T03:27:05Z) - Continual Prototype Evolution: Learning Online from Non-Stationary Data
Streams [42.525141660788]
任意の時点で学習と予測を可能にするシステムを導入する。
継続的な学習における主要な仕事とは対照的に、データストリームはオンライン形式で処理される。
我々は,高度にバランスの取れない3つのデータストリームを含む8つのベンチマークで,最先端のパフォーマンスを顕著に比較した。
論文 参考訳(メタデータ) (2020-09-02T09:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。