論文の概要: Online Continual Learning on Class Incremental Blurry Task Configuration
with Anytime Inference
- arxiv url: http://arxiv.org/abs/2110.10031v1
- Date: Tue, 19 Oct 2021 14:59:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 13:59:47.160966
- Title: Online Continual Learning on Class Incremental Blurry Task Configuration
with Anytime Inference
- Title(参考訳): クラスインクリメンタルなぼやけたタスク構成に関するオンライン連続学習
- Authors: Hyunseo Koh, Dahyun Kim, Jung-Woo Ha, Jonghyun Choi
- Abstract要約: まず,オンライン,タスクフリー,クラスインクリメンタル,任意のタイミングで推論クエリを対象とする新しい連続学習環境を提案する。
また,任意のタイミングで推論クエリの対象となる連続学習手法の性能をよりよく測定するための新しい指標を提案する。
- 参考スコア(独自算出の注目度): 13.732815514979206
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite rapid advances in continual learning, a large body of research is
devoted to improving performance in the existing setups. While a handful of
work do propose new continual learning setups, they still lack practicality in
certain aspects. For better practicality, we first propose a novel continual
learning setup that is online, task-free, class-incremental, of blurry task
boundaries and subject to inference queries at any moment. We additionally
propose a new metric to better measure the performance of the continual
learning methods subject to inference queries at any moment. To address the
challenging setup and evaluation protocol, we propose an effective method that
employs a new memory management scheme and novel learning techniques. Our
empirical validation demonstrates that the proposed method outperforms prior
arts by large margins.
- Abstract(参考訳): 継続的学習の急速な進歩にもかかわらず、既存のセットアップのパフォーマンス向上に多くの研究が費やされている。
少数の研究が新しい連続的な学習環境を提案する一方で、特定の面では実用性に欠けています。
そこで我々はまず,オンライン,タスクフリー,クラスインクリメンタルな,ぼやけたタスク境界をもち,いつでも推論クエリを適用可能な,新しい連続学習環境を提案する。
また,任意のタイミングで推論クエリの対象となる連続学習手法の性能を測定するための新しい指標を提案する。
そこで本研究では,新しいメモリ管理手法と新しい学習手法を用いた効果的な手法を提案する。
実験により,提案手法が先行技術よりも高い性能を示した。
関連論文リスト
- Toward industrial use of continual learning : new metrics proposal for class incremental learning [2.4472308031704073]
平均的なタスクパフォーマンスの監視は楽観的すぎることを示し、将来の実生活における産業利用の誤解を招く可能性があることを示す。
まず,連続学習手法の公平かつ有用な評価を行うための簡易な尺度であるMinimmal Incremental Class Accuracy (MICA)を提案する。
論文 参考訳(メタデータ) (2024-04-10T12:32:18Z) - Domain-Aware Augmentations for Unsupervised Online General Continual
Learning [7.145581090959242]
本稿では、教師なしオンライン総合学習(UOGCL)におけるコントラスト学習のためのメモリ使用量を改善する新しい手法を提案する。
提案手法は単純だが有効であり, 従来の非教師なし手法に比べ, 最新の結果が得られる。
ドメインを意識した拡張手順は他のリプレイ方式にも適用可能であり、継続的な学習には有望な戦略である。
論文 参考訳(メタデータ) (2023-09-13T11:45:21Z) - Multitask Learning with No Regret: from Improved Confidence Bounds to
Active Learning [79.07658065326592]
推定タスクの不確実性の定量化は、オンラインやアクティブな学習など、多くの下流アプリケーションにとって重要な課題である。
タスク間の類似性やタスクの特徴を学習者に提供できない場合、課題設定において新しいマルチタスク信頼区間を提供する。
本稿では,このパラメータを事前に知らないまま,このような改善された後悔を実現する新しいオンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-03T13:08:09Z) - Online Continual Learning via the Knowledge Invariant and Spread-out
Properties [4.109784267309124]
継続的な学習の鍵となる課題は破滅的な忘れ方だ。
知識不変性とスプレッドアウト特性(OCLKISP)を用いたオンライン連続学習法を提案する。
提案手法を,CIFAR 100, Split SVHN, Split CUB200, Split Tiny-Image-Netの4つのベンチマークで実証的に評価した。
論文 参考訳(メタデータ) (2023-02-02T04:03:38Z) - Algorithm Design for Online Meta-Learning with Task Boundary Detection [63.284263611646]
非定常環境におけるタスクに依存しないオンラインメタ学習のための新しいアルゴリズムを提案する。
まず,タスクスイッチと分散シフトの簡易かつ効果的な2つの検出機構を提案する。
軽度条件下では,線形タスク平均的後悔がアルゴリズムに対して達成可能であることを示す。
論文 参考訳(メタデータ) (2023-02-02T04:02:49Z) - Streaming LifeLong Learning With Any-Time Inference [36.3326483579511]
本稿では,1回の入力サンプルが各タイムステップ,シングルパス,クラスインクリメンタル,任意のタイミングで評価対象に到達する,新たな生涯学習手法を提案する。
また,スナップショット自己蒸留方式の暗黙正則化器を提案する。
我々の経験的評価と改善は,提案手法が先行研究を大きなマージンで上回ることを示すものである。
論文 参考訳(メタデータ) (2023-01-27T18:09:19Z) - Continual Prompt Tuning for Dialog State Tracking [58.66412648276873]
望ましいダイアログシステムは、古いスキルを忘れずに継続的に新しいスキルを学ぶことができるべきである。
本稿では,タスク間の知識伝達を可能にするパラメータ効率フレームワークであるContinuous Prompt Tuningを提案する。
論文 参考訳(メタデータ) (2022-03-13T13:22:41Z) - Relational Experience Replay: Continual Learning by Adaptively Tuning
Task-wise Relationship [54.73817402934303]
本稿では,2段階の学習フレームワークである経験連続再生(ERR)を提案する。
ERRは、すべてのベースラインの性能を一貫して改善し、現在の最先端の手法を超えることができる。
論文 参考訳(メタデータ) (2021-12-31T12:05:22Z) - Continual Learning in Task-Oriented Dialogue Systems [49.35627673523519]
タスク指向対話システムにおける継続的な学習は、システム全体のリトレーニングのコストを伴わずに、時間を通じて新しいドメインや機能を追加できる。
37ドメインのタスク指向対話システムを4つの設定で継続的に学習するための継続的学習ベンチマークを提案する。
論文 参考訳(メタデータ) (2020-12-31T08:44:25Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。