論文の概要: Avalanche: an End-to-End Library for Continual Learning
- arxiv url: http://arxiv.org/abs/2104.00405v1
- Date: Thu, 1 Apr 2021 11:31:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:57:28.904167
- Title: Avalanche: an End-to-End Library for Continual Learning
- Title(参考訳): Avalanche: 継続的学習のためのエンドツーエンドライブラリ
- Authors: Vincenzo Lomonaco, Lorenzo Pellegrini, Andrea Cossu, Antonio Carta,
Gabriele Graffieti, Tyler L. Hayes, Matthias De Lange, Marc Masana, Jary
Pomponi, Gido van de Ven, Martin Mundt, Qi She, Keiland Cooper, Jeremy
Forest, Eden Belouadah, Simone Calderara, German I. Parisi, Fabio Cuzzolin,
Andreas Tolias, Simone Scardapane, Luca Antiga, Subutai Amhad, Adrian
Popescu, Christopher Kanan, Joost van de Weijer, Tinne Tuytelaars, Davide
Bacciu, Davide Maltoni
- Abstract要約: PyTorchをベースとした継続的学習研究のためのオープンソースライブラリであるAvalancheを提案する。
avalancheは、継続的学習アルゴリズムの高速プロトタイピング、トレーニング、再現可能な評価のための共有とコラボレーションを提供するように設計されている。
- 参考スコア(独自算出の注目度): 81.84325803942811
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning continually from non-stationary data streams is a long-standing goal
and a challenging problem in machine learning. Recently, we have witnessed a
renewed and fast-growing interest in continual learning, especially within the
deep learning community. However, algorithmic solutions are often difficult to
re-implement, evaluate and port across different settings, where even results
on standard benchmarks are hard to reproduce. In this work, we propose
Avalanche, an open-source end-to-end library for continual learning research
based on PyTorch. Avalanche is designed to provide a shared and collaborative
codebase for fast prototyping, training, and reproducible evaluation of
continual learning algorithms.
- Abstract(参考訳): 非定常データストリームから継続的に学習することは長年の目標であり、機械学習の課題である。
近年,特に深層学習コミュニティにおいて,継続的な学習への関心が高まっている。
しかし、アルゴリズム的なソリューションは、標準ベンチマークの結果でさえ再現が難しい異なる設定で再実装、評価、移植することがしばしば困難である。
本稿では,pytorchに基づく継続的学習研究のためのオープンソースライブラリであるavalancheを提案する。
avalancheは、継続的学習アルゴリズムの高速プロトタイピング、トレーニング、再現可能な評価のための共有かつ協調的なコードベースを提供するように設計されている。
関連論文リスト
- Continual Learning with Deep Streaming Regularized Discriminant Analysis [0.0]
本稿では,この課題に対する解決法として,正規化判別分析のストリーミング版を提案する。
アルゴリズムを畳み込みニューラルネットワークと組み合わせて、バッチ学習と既存のストリーミング学習アルゴリズムよりも優れていることを実証します。
論文 参考訳(メタデータ) (2023-09-15T12:25:42Z) - A Comprehensive Empirical Evaluation on Online Continual Learning [20.39495058720296]
オンライン連続学習に取り組む文献から手法を評価する。
画像分類の文脈におけるクラスインクリメンタル設定に焦点をあてる。
これらの手法をSplit-CIFAR100とSplit-TinyImagenetベンチマークで比較する。
論文 参考訳(メタデータ) (2023-08-20T17:52:02Z) - Katakomba: Tools and Benchmarks for Data-Driven NetHack [52.0035089982277]
NetHackは強化学習研究のフロンティアとして知られている。
採用には、リソースワイド、実装ワイド、ベンチマークワイドの3つの大きな障害がある、と私たちは主張しています。
オフラインの強化学習コミュニティに慣れ親しんだワークフローの基礎を提供するオープンソースライブラリを開発した。
論文 参考訳(メタデータ) (2023-06-14T22:50:25Z) - SequeL: A Continual Learning Library in PyTorch and JAX [50.33956216274694]
SequeLは継続学習のためのライブラリで、PyTorchとJAXフレームワークの両方をサポートする。
それは、正規化ベースのアプローチ、リプレイベースのアプローチ、ハイブリッドアプローチを含む、幅広い連続学習アルゴリズムのための統一インターフェースを提供する。
私たちはSequeLをオープンソースライブラリとしてリリースし、研究者や開発者が自身の目的で簡単にライブラリを実験し拡張することができます。
論文 参考訳(メタデータ) (2023-04-21T10:00:22Z) - Avalanche: A PyTorch Library for Deep Continual Learning [12.238684710313168]
継続的な学習は、非定常的なデータストリームから学習する問題である。
AvalancheはContinualAIの非営利団体によって管理されているオープンソースライブラリである。
論文 参考訳(メタデータ) (2023-02-02T10:45:20Z) - NEVIS'22: A Stream of 100 Tasks Sampled from 30 Years of Computer Vision
Research [96.53307645791179]
我々は,100以上の視覚的分類タスクのストリームからなるベンチマークであるNever-Ending VIsual-classification Stream (NEVIS'22)を紹介する。
分類に制限されているにもかかわらず、OCR、テクスチャ分析、シーン認識など、様々なタスクが生成される。
NEVIS'22は、タスクの規模と多様性のために、現在のシーケンシャルな学習アプローチに対して前例のない課題を提起している。
論文 参考訳(メタデータ) (2022-11-15T18:57:46Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Bayesian active learning for production, a systematic study and a
reusable library [85.32971950095742]
本稿では,現在のアクティブラーニング技術の主な欠点について分析する。
実世界のデータセットの最も一般的な課題が深層能動学習プロセスに与える影響について,系統的研究を行った。
部分的不確実性サンプリングやより大きいクエリサイズといった,アクティブな学習ループを高速化する2つの手法を導出する。
論文 参考訳(メタデータ) (2020-06-17T14:51:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。