論文の概要: Lifelong Wandering: A realistic few-shot online continual learning
setting
- arxiv url: http://arxiv.org/abs/2206.07932v1
- Date: Thu, 16 Jun 2022 05:39:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-06-18 11:08:31.455237
- Title: Lifelong Wandering: A realistic few-shot online continual learning
setting
- Title(参考訳): Lifelong Wandering: リアルな数ショットのオンライン連続学習環境
- Authors: Mayank Lunayach, James Smith, Zsolt Kira
- Abstract要約: オンラインの数ショット学習では、新しいクラスを学習しながら、データストリーム上でモデルをトレーニングし、評価する環境が記述されている。
この環境での先行研究は、単一の屋内環境からなるデータストリームから学習する際、インスタンス分類において非常に有望な性能を発揮する一方で、複数の屋内環境におけるオブジェクト分類を検討するために、この設定を拡張することを提案する。
本研究では,いくつかの既存手法と適応ベースラインのベンチマークを行い,破滅的な忘れ込みとオンラインパフォーマンスのトレードオフが存在することを示す。
- 参考スコア(独自算出の注目度): 23.134299907227796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online few-shot learning describes a setting where models are trained and
evaluated on a stream of data while learning emerging classes. While prior work
in this setting has achieved very promising performance on instance
classification when learning from data-streams composed of a single indoor
environment, we propose to extend this setting to consider object
classification on a series of several indoor environments, which is likely to
occur in applications such as robotics. Importantly, our setting, which we
refer to as online few-shot continual learning, injects the well-studied issue
of catastrophic forgetting into the few-shot online learning paradigm. In this
work, we benchmark several existing methods and adapted baselines within our
setting, and show there exists a trade-off between catastrophic forgetting and
online performance. Our findings motivate the need for future work in this
setting, which can achieve better online performance without catastrophic
forgetting.
- Abstract(参考訳): online few-shot learningは、新しいクラスを学習しながら、モデルがデータストリームでトレーニングされ、評価される環境を記述している。
この環境における先行研究は、1つの屋内環境からなるデータストリームから学習する場合にインスタンス分類において非常に有望な性能を発揮するが、ロボット工学のようなアプリケーションで発生する可能性のある複数の屋内環境におけるオブジェクト分類を考えるために、この設定を拡張することを提案する。
重要なことは、オンライン数ショット連続学習と呼ばれる私たちの設定は、数ショットオンライン学習パラダイムを忘れることの破滅的な問題をよく研究していることです。
本研究では,いくつかの既存手法と適応ベースラインのベンチマークを行い,破滅的な忘れ込みとオンラインパフォーマンスのトレードオフが存在することを示す。
この環境での今後の作業の必要性を動機として,破滅的な忘れを伴わずに,オンラインパフォーマンスの向上を実現している。
関連論文リスト
- Learning Goal-Conditioned Policies Offline with Self-Supervised Reward
Shaping [94.89128390954572]
本稿では,モデルの構造と力学を理解するために,事前収集したデータセット上に,新たな自己教師型学習フェーズを提案する。
提案手法を3つの連続制御タスクで評価し,既存手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-01-05T15:07:10Z) - Bypassing Logits Bias in Online Class-Incremental Learning with a
Generative Framework [15.345043222622158]
我々は、時間とともに新しいクラスが出現するオンラインのクラス増分学習環境に焦点を当てる。
既存のほとんどのメソッドは、ソフトマックス分類器を使ったリプレイベースである。
特徴空間に基づく新しい生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-19T06:54:20Z) - Continual Predictive Learning from Videos [100.27176974654559]
本稿では,ビデオ予測の文脈において,新たな連続学習問題について検討する。
本稿では,連続予測学習(Continuousal predictive Learning, CPL)アプローチを提案する。
我々はRoboNetとKTHに基づく2つの新しいベンチマークを構築し、異なるタスクが異なる物理ロボット環境や人間の行動に対応するようにした。
論文 参考訳(メタデータ) (2022-04-12T08:32:26Z) - Continual learning: a feature extraction formalization, an efficient
algorithm, and fundamental obstructions [30.61165302635335]
継続的学習は機械学習の新たなパラダイムである。
本稿では,特徴抽出の枠組みを通した連続学習の枠組みを提案する。
論文 参考訳(メタデータ) (2022-03-27T20:20:41Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Knowledge Consolidation based Class Incremental Online Learning with
Limited Data [41.87919913719975]
本稿では,限定的なデータ環境下での授業段階的なオンライン学習のための新しい手法を提案する。
我々は、破滅的な忘れ込みと過度な適合の問題に悩まされることなく、タスク間で一般化可能な堅牢な表現を学習する。
論文 参考訳(メタデータ) (2021-06-12T15:18:29Z) - Online Coreset Selection for Rehearsal-based Continual Learning [65.85595842458882]
継続的な学習では、後に再生されるトレーニング例(コアセット)のサブセットを格納し、破滅的な忘れを軽減します。
提案するオンラインコアセット選択(OCS, Online Coreset Selection)は, 各イテレーションにおいて最も代表的で情報性の高いコアセットを選択するシンプルで効果的な方法である。
提案手法は,過去のタスクに対して高親和性サンプルを選択しながら,目標データセットへのモデル適応を最大化し,破滅的忘れを直接的に抑制する。
論文 参考訳(メタデータ) (2021-06-02T11:39:25Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z) - Wandering Within a World: Online Contextualized Few-Shot Learning [62.28521610606054]
我々は、数ショット学習の標準フレームワークをオンライン環境に拡張することで、一般的な人間と機械学習環境のギャップを埋めることを目指している。
本研究では,世界中をさまようエージェントの視覚体験を模倣した大規模な屋内画像に基づく,新しいプロトタイプによる数ショット学習を提案する。
論文 参考訳(メタデータ) (2020-07-09T04:05:04Z) - Move-to-Data: A new Continual Learning approach with Deep CNNs,
Application for image-class recognition [0.0]
トレーニング記録フェーズ」でモデルを事前トレーニングし、新しいデータに調整する必要がある。
本稿では,ニューラルネットワークの終端における高速連続学習層を提案する。
論文 参考訳(メタデータ) (2020-06-12T13:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。