論文の概要: Sequoia: A Software Framework to Unify Continual Learning Research
- arxiv url: http://arxiv.org/abs/2108.01005v4
- Date: Mon, 5 Jun 2023 14:10:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 06:00:48.896887
- Title: Sequoia: A Software Framework to Unify Continual Learning Research
- Title(参考訳): Sequoia: 継続的な学習研究を統合するソフトウェアフレームワーク
- Authors: Fabrice Normandin, Florian Golemo, Oleksiy Ostapenko, Pau Rodriguez,
Matthew D Riemer, Julio Hurtado, Khimya Khetarpal, Ryan Lindeborg, Lucas
Cecchi, Timoth\'ee Lesort, Laurent Charlin, Irina Rish, Massimo Caccia
- Abstract要約: そこで我々は,各設定を仮定の集合として記述する,設定の分類法を提案する。
この視点から木のような階層が出現し、より一般的な設定がより制限的な仮定を持つ人の親となる。
私たちはこのアイデアをSequoiaというソフトウェアフレームワークとして公開しています。
- 参考スコア(独自算出の注目度): 19.33884962848455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of Continual Learning (CL) seeks to develop algorithms that
accumulate knowledge and skills over time through interaction with
non-stationary environments. In practice, a plethora of evaluation procedures
(settings) and algorithmic solutions (methods) exist, each with their own
potentially disjoint set of assumptions. This variety makes measuring progress
in CL difficult. We propose a taxonomy of settings, where each setting is
described as a set of assumptions. A tree-shaped hierarchy emerges from this
view, where more general settings become the parents of those with more
restrictive assumptions. This makes it possible to use inheritance to share and
reuse research, as developing a method for a given setting also makes it
directly applicable onto any of its children. We instantiate this idea as a
publicly available software framework called Sequoia, which features a wide
variety of settings from both the Continual Supervised Learning (CSL) and
Continual Reinforcement Learning (CRL) domains. Sequoia also includes a growing
suite of methods which are easy to extend and customize, in addition to more
specialized methods from external libraries. We hope that this new paradigm and
its first implementation can help unify and accelerate research in CL. You can
help us grow the tree by visiting www.github.com/lebrice/Sequoia.
- Abstract(参考訳): 連続学習(cl)の分野は、非定常環境とのインタラクションを通じて、時間とともに知識とスキルを蓄積するアルゴリズムの開発を目指している。
実際には、評価手順(セット)とアルゴリズム解(メソッド)の多元性が存在し、それぞれが潜在的な仮定の集合を持つ。
この多様性はCLの進行を測定するのを難しくする。
本稿では,各設定を仮定の集合として記述する設定の分類法を提案する。
この視点から木のような階層が生まれ、より一般的な設定がより制限的な仮定を持つ人の親となる。
これにより、遺伝を利用して研究を共有、再利用することが可能となり、与えられた設定の方法を開発することで、子供にも直接適用することができる。
我々は、このアイデアをSequoiaと呼ばれる一般公開のソフトウェアフレームワークとしてインスタンス化し、CSL(Continuous Supervised Learning)ドメインとCRL(Continuous Reinforcement Learning)ドメインの両方から幅広い設定を特徴としている。
Sequoiaには、拡張やカスタマイズが容易なメソッドのスイートや、外部ライブラリからのより特殊なメソッドも含まれている。
この新しいパラダイムと最初の実装がclの研究の統一と加速に役立つことを願っている。
www.github.com/lebrice/Sequoia.comを訪問すれば、木を育てられる。
関連論文リスト
- A Unified and General Framework for Continual Learning [58.72671755989431]
継続学習(CL)は、以前取得した知識を維持しながら、動的かつ変化するデータ分布から学ぶことに焦点を当てている。
正規化ベース、ベイズベース、メモリ再生ベースなど、破滅的な忘れ込みの課題に対処する様々な手法が開発されている。
本研究の目的は,既存の方法論を包含し,整理する包括的かつ包括的な枠組みを導入することで,このギャップを埋めることである。
論文 参考訳(メタデータ) (2024-03-20T02:21:44Z) - Generalizable Two-Branch Framework for Image Class-Incremental Learning [7.173585799587135]
ディープニューラルネットワークは、新しい知識を学ぶ際に、これまで学んだ知識を忘れることが多い。
本稿では,既存のCL手法をさらに強化するために,新しい2分岐連続学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-28T06:18:33Z) - CITB: A Benchmark for Continual Instruction Tuning [44.40322919392584]
連続学習(英: Continual Learning, CL)は、人間の学習能力を再現し、継続的に知識を蓄積することを目的としたパラダイムである。
近年のインストラクションチューニング (IT) では, NLP タスクの解法に適応しやすくするための微調整モデルが提案されている。
各種CL手法を体系的に研究するための学習プロトコルと評価プロトコルからなるベンチマークを構築した。
論文 参考訳(メタデータ) (2023-10-23T02:42:32Z) - SequeL: A Continual Learning Library in PyTorch and JAX [50.33956216274694]
SequeLは継続学習のためのライブラリで、PyTorchとJAXフレームワークの両方をサポートする。
それは、正規化ベースのアプローチ、リプレイベースのアプローチ、ハイブリッドアプローチを含む、幅広い連続学習アルゴリズムのための統一インターフェースを提供する。
私たちはSequeLをオープンソースライブラリとしてリリースし、研究者や開発者が自身の目的で簡単にライブラリを実験し拡張することができます。
論文 参考訳(メタデータ) (2023-04-21T10:00:22Z) - The tree reconstruction game: phylogenetic reconstruction using
reinforcement learning [30.114112337828875]
本研究では,系統樹の再構築に挑戦する強化学習アルゴリズムを提案する。
本研究では,強化学習を用いて最適な探索戦略を学習できることを実証する。
以上の結果から, 推定された系統の確率スコアは, 広く使われているソフトウェアと類似していることが示唆された。
論文 参考訳(メタデータ) (2023-03-12T16:19:06Z) - Reinforcement Learning for Branch-and-Bound Optimisation using
Retrospective Trajectories [72.15369769265398]
機械学習は分岐のための有望なパラダイムとして登場した。
分岐のための単純かつ効果的なRLアプローチであるレトロ分岐を提案する。
我々は現在最先端のRL分岐アルゴリズムを3~5倍に上回り、500の制約と1000の変数を持つMILP上での最高のILメソッドの性能の20%以内である。
論文 参考訳(メタデータ) (2022-05-28T06:08:07Z) - HCV: Hierarchy-Consistency Verification for Incremental
Implicitly-Refined Classification [48.68128465443425]
人間は生涯にわたって階層的な知識を学び蓄積する。
現在の漸進的な学習手法には、新しい概念を古い概念に関連付けることによって概念階層を構築する能力がない。
本稿では,既存の継続学習手法の強化を目的とした階層一貫性検証(HCV)を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:54:00Z) - Discovering Reinforcement Learning Algorithms [53.72358280495428]
強化学習アルゴリズムは、いくつかのルールの1つに従ってエージェントのパラメータを更新する。
本稿では,更新ルール全体を検出するメタラーニング手法を提案する。
これには、一連の環境と対話することで、"何を予測するか"(例えば、値関数)と"どのように学習するか"の両方が含まれている。
論文 参考訳(メタデータ) (2020-07-17T07:38:39Z) - Parameterizing Branch-and-Bound Search Trees to Learn Branching Policies [76.83991682238666]
Branch and Bound (B&B) は、Mixed-Integer Linear Programming Problem (MILP) の解法として一般的に用いられる木探索法である。
本稿では,新しい模倣学習フレームワークを提案し,分岐を表現するための新しい入力機能とアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-12T17:43:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。