論文の概要: Sequoia: A Software Framework to Unify Continual Learning Research
- arxiv url: http://arxiv.org/abs/2108.01005v1
- Date: Mon, 2 Aug 2021 16:07:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 15:10:48.340870
- Title: Sequoia: A Software Framework to Unify Continual Learning Research
- Title(参考訳): Sequoia: 継続的な学習研究を統合するソフトウェアフレームワーク
- Authors: Fabrice Normandin, Florian Golemo, Oleksiy Ostapenko, Pau Rodriguez,
Matthew D Riemer, Julio Hurtado, Khimya Khetarpal1, Dominic Zhao, Ryan
Lindeborg, Thimoth\'ee Lesort, Laurent Charlin, Irina Rish, Massimo Caccia
- Abstract要約: 私たちはこのアイデアを,emphSequoiaというソフトウェアフレームワークとして公開しています。
Sequoiaは、Continuous Supervised Learning(CSL)とContinuous Reinforcement Learning(CRL)の両方のドメインから、さまざまな設定を特徴としている。
- 参考スコア(独自算出の注目度): 12.088609714535224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of Continual Learning (CL) seeks to develop algorithms that
accumulate knowledge and skills over time through interaction with
non-stationary environments and data distributions. Measuring progress in CL
can be difficult because a plethora of evaluation procedures (\emph{settings})
and algorithmic solutions (\emph{methods}) have emerged, each with their own
potentially disjoint set of assumptions about the CL problem. In this work, we
view each setting as a set of \emph{assumptions}. We then create a tree-shaped
hierarchy of the research settings in CL, in which more general settings become
the parents of those with more restrictive assumptions. This makes it possible
to use inheritance to share and reuse research, as developing a method for a
given setting also makes it directly applicable onto any of its children. We
instantiate this idea as a publicly available software framework called
\emph{Sequoia}, which features a variety of settings from both the Continual
Supervised Learning (CSL) and Continual Reinforcement Learning (CRL) domains.
Sequoia also includes a growing suite of methods which are easy to extend and
customize, in addition to more specialized methods from third-party libraries.
We hope that this new paradigm and its first implementation can serve as a
foundation for the unification and acceleration of research in CL. You can help
us grow the tree by visiting \url{www.github.com/lebrice/Sequoia}.
- Abstract(参考訳): 連続学習(cl)の分野は、非定常環境とデータ分散とのインタラクションを通じて、時間とともに知識とスキルを蓄積するアルゴリズムの開発を目指している。
CL の進行度を測定することは、CL 問題に関する多くの評価手順 (\emph{settings}) とアルゴリズム解 (\emph{methods}) が出現し、それぞれが、CL 問題に関する仮定に相反する可能性があるため困難である。
この研究では、各設定を \emph{assumption} の集合とみなす。
次に、CLにおける研究環境のツリー型階層を作成し、より一般的な設定がより制限的な仮定を持つ人の親となる。
これにより、遺伝を利用して研究を共有、再利用することが可能となり、与えられた設定の方法を開発することで、子供にも直接適用することができる。
我々はこのアイデアを,CSL(Continuous Supervised Learning)ドメインとCRL(Continuous Reinforcement Learning)ドメインの両方からさまざまな設定を特徴とする,"emph{Sequoia}"という,公開可能なソフトウェアフレームワークとしてインスタンス化する。
sequoiaには、拡張やカスタマイズが容易なメソッドスイートや、サードパーティライブラリのより専門的なメソッドも含まれている。
我々は,この新たなパラダイムとその最初の実装が,CLにおける研究の統合と加速の基礎となることを願っている。
ツリーの成長を助けるには、 \url{www.github.com/lebrice/sequoia} を参照してください。
関連論文リスト
- A Unified and General Framework for Continual Learning [58.72671755989431]
継続学習(CL)は、以前取得した知識を維持しながら、動的かつ変化するデータ分布から学ぶことに焦点を当てている。
正規化ベース、ベイズベース、メモリ再生ベースなど、破滅的な忘れ込みの課題に対処する様々な手法が開発されている。
本研究の目的は,既存の方法論を包含し,整理する包括的かつ包括的な枠組みを導入することで,このギャップを埋めることである。
論文 参考訳(メタデータ) (2024-03-20T02:21:44Z) - Generalizable Two-Branch Framework for Image Class-Incremental Learning [7.173585799587135]
ディープニューラルネットワークは、新しい知識を学ぶ際に、これまで学んだ知識を忘れることが多い。
本稿では,既存のCL手法をさらに強化するために,新しい2分岐連続学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-28T06:18:33Z) - CITB: A Benchmark for Continual Instruction Tuning [44.40322919392584]
連続学習(英: Continual Learning, CL)は、人間の学習能力を再現し、継続的に知識を蓄積することを目的としたパラダイムである。
近年のインストラクションチューニング (IT) では, NLP タスクの解法に適応しやすくするための微調整モデルが提案されている。
各種CL手法を体系的に研究するための学習プロトコルと評価プロトコルからなるベンチマークを構築した。
論文 参考訳(メタデータ) (2023-10-23T02:42:32Z) - SequeL: A Continual Learning Library in PyTorch and JAX [50.33956216274694]
SequeLは継続学習のためのライブラリで、PyTorchとJAXフレームワークの両方をサポートする。
それは、正規化ベースのアプローチ、リプレイベースのアプローチ、ハイブリッドアプローチを含む、幅広い連続学習アルゴリズムのための統一インターフェースを提供する。
私たちはSequeLをオープンソースライブラリとしてリリースし、研究者や開発者が自身の目的で簡単にライブラリを実験し拡張することができます。
論文 参考訳(メタデータ) (2023-04-21T10:00:22Z) - The tree reconstruction game: phylogenetic reconstruction using
reinforcement learning [30.114112337828875]
本研究では,系統樹の再構築に挑戦する強化学習アルゴリズムを提案する。
本研究では,強化学習を用いて最適な探索戦略を学習できることを実証する。
以上の結果から, 推定された系統の確率スコアは, 広く使われているソフトウェアと類似していることが示唆された。
論文 参考訳(メタデータ) (2023-03-12T16:19:06Z) - Reinforcement Learning for Branch-and-Bound Optimisation using
Retrospective Trajectories [72.15369769265398]
機械学習は分岐のための有望なパラダイムとして登場した。
分岐のための単純かつ効果的なRLアプローチであるレトロ分岐を提案する。
我々は現在最先端のRL分岐アルゴリズムを3~5倍に上回り、500の制約と1000の変数を持つMILP上での最高のILメソッドの性能の20%以内である。
論文 参考訳(メタデータ) (2022-05-28T06:08:07Z) - HCV: Hierarchy-Consistency Verification for Incremental
Implicitly-Refined Classification [48.68128465443425]
人間は生涯にわたって階層的な知識を学び蓄積する。
現在の漸進的な学習手法には、新しい概念を古い概念に関連付けることによって概念階層を構築する能力がない。
本稿では,既存の継続学習手法の強化を目的とした階層一貫性検証(HCV)を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:54:00Z) - Discovering Reinforcement Learning Algorithms [53.72358280495428]
強化学習アルゴリズムは、いくつかのルールの1つに従ってエージェントのパラメータを更新する。
本稿では,更新ルール全体を検出するメタラーニング手法を提案する。
これには、一連の環境と対話することで、"何を予測するか"(例えば、値関数)と"どのように学習するか"の両方が含まれている。
論文 参考訳(メタデータ) (2020-07-17T07:38:39Z) - Parameterizing Branch-and-Bound Search Trees to Learn Branching Policies [76.83991682238666]
Branch and Bound (B&B) は、Mixed-Integer Linear Programming Problem (MILP) の解法として一般的に用いられる木探索法である。
本稿では,新しい模倣学習フレームワークを提案し,分岐を表現するための新しい入力機能とアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-12T17:43:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。