論文の概要: Batch-level Experience Replay with Review for Continual Learning
- arxiv url: http://arxiv.org/abs/2007.05683v1
- Date: Sat, 11 Jul 2020 05:20:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 12:52:01.670633
- Title: Batch-level Experience Replay with Review for Continual Learning
- Title(参考訳): 継続的学習のためのバッチレベルの体験リプレイ
- Authors: Zheda Mai, Hyunwoo Kim, Jihwan Jeong, Scott Sanner
- Abstract要約: CVPR 2020 CLVision Continual Learning for Computer Vision Challengeは、現在の最先端の継続的学習手法を評価し、前進させることを目的としている。
本稿では,この課題に対して,Batch-level Experience Replay with Reviewというアプローチを提案する。
私たちのチームは79チーム中3つのシナリオで1位を獲得しました。
- 参考スコア(独自算出の注目度): 29.946716610366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning is a branch of deep learning that seeks to strike a
balance between learning stability and plasticity. The CVPR 2020 CLVision
Continual Learning for Computer Vision challenge is dedicated to evaluating and
advancing the current state-of-the-art continual learning methods using the
CORe50 dataset with three different continual learning scenarios. This paper
presents our approach, called Batch-level Experience Replay with Review, to
this challenge. Our team achieved the 1'st place in all three scenarios out of
79 participated teams. The codebase of our implementation is publicly available
at https://github.com/RaptorMai/CVPR20_CLVision_challenge
- Abstract(参考訳): 継続的な学習は、学習の安定性と可塑性のバランスを保とうとする深層学習の一分野である。
CVPR 2020 CLVision Continual Learning for Computer Visionチャレンジは、3つの異なる連続学習シナリオを持つCORe50データセットを使用して、現在の最先端の継続的学習手法を評価し、前進させることを目的としている。
本稿では,この課題に対して,Batch-level Experience Replay with Reviewというアプローチを提案する。
我々のチームは79チーム中3つのシナリオで1位となった。
実装のコードベースはhttps://github.com/RaptorMai/CVPR20_CLVision_challengeで公開されています。
関連論文リスト
- SCALE: Online Self-Supervised Lifelong Learning without Prior Knowledge [20.277446818410994]
本稿では,事前知識のないオンライン自己教師型生涯学習という,より実践的な問題設定を提案する。
提案した設定は、非IDデータとシングルパスデータ、外部監視の欠如、事前の知識がないため、困難である。
課題に対処するために,事前知識のない自己監督型コントラサシブ生涯学習(SCALE)を提案する。
SCALEは、擬似教師付きコントラスト損失、自己教師付き忘れ損失、一様サブセット選択のためのオンラインメモリ更新の3つの主要なコンポーネントを中心に設計されている。
論文 参考訳(メタデータ) (2022-08-24T02:01:06Z) - Learning Rate Curriculum [75.98230528486401]
ラーニングレートカリキュラム(LeRaC)と呼ばれる新しいカリキュラム学習手法を提案する。
LeRaCは、ニューラルネットワークの各レイヤ毎に異なる学習率を使用して、最初のトレーニングエポックの間、データに依存しないカリキュラムを作成する。
Smoothing(CBS)によるCurriculum(Curriculum)との比較を行った。
論文 参考訳(メタデータ) (2022-05-18T18:57:36Z) - vCLIMB: A Novel Video Class Incremental Learning Benchmark [53.90485760679411]
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
論文 参考訳(メタデータ) (2022-01-23T22:14:17Z) - An Empirical Study of Training Self-Supervised Visual Transformers [70.27107708555185]
自己監視型視覚トランスフォーマーの訓練におけるいくつかの基本成分の影響について検討する。
これらの結果は確かに部分的な失敗であり、トレーニングをより安定させると改善できる。
論文 参考訳(メタデータ) (2021-04-05T17:59:40Z) - LID 2020: The Learning from Imperfect Data Challenge Results [242.86700551532272]
Imperfect Dataワークショップからの学習は、新しいアプローチの開発に刺激を与え、促進することを目的としている。
我々は、弱教師付き学習環境における最先端のアプローチを見つけるために、3つの課題を編成する。
この技術的レポートは、課題のハイライトを要約している。
論文 参考訳(メタデータ) (2020-10-17T13:06:12Z) - CVPR 2020 Continual Learning in Computer Vision Competition: Approaches,
Results, Current Challenges and Future Directions [25.791936837340877]
2020年にCVPRで行われた最初の連続学習コンピュータビジョンチャレンジは、異なる連続学習アルゴリズムを評価する最初の機会の1つである。
優勝チームは79チーム以上、ファイナリストは11チーム、賞金は2300ドルだった。
論文 参考訳(メタデータ) (2020-09-14T08:53:05Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z) - Continual Learning: Tackling Catastrophic Forgetting in Deep Neural
Networks with Replay Processes [0.0]
連続的なアルゴリズムは、忘れずに学習経験のカリキュラムで知識を蓄積し、改善するように設計されている。
生成的再生は、過去の学習経験を記憶するための生成モデルで再現する。
連続学習には非常に有望な手法であることを示す。
論文 参考訳(メタデータ) (2020-07-01T13:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。