論文の概要: Representation Ensembling for Synergistic Lifelong Learning with
Quasilinear Complexity
- arxiv url: http://arxiv.org/abs/2004.12908v15
- Date: Sat, 18 Sep 2021 15:04:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 04:08:39.374796
- Title: Representation Ensembling for Synergistic Lifelong Learning with
Quasilinear Complexity
- Title(参考訳): 半線形複雑性をもつ相乗的生涯学習のための表現感覚
- Authors: Joshua T. Vogelstein, Jayanta Dey, Hayden S. Helm, Will LeVine, Ronak
D. Mehta, Tyler M. Tomita, Haoyin Xu, Ali Geisa, Qingyang Wang, Gido M. van
de Ven, Chenyu Gao, Weiwei Yang, Bryan Tower, Jonathan Larson, Christopher M.
White, and Carey E. Priebe
- Abstract要約: 生涯学習では、データは現在のタスクだけでなく、以前に遭遇したタスクや、未報告のタスクでもパフォーマンスを向上させるために使用される。
私たちの重要な洞察は、異なるタスクで独立して学習された表現を相乗的にアンサンブルすることで、前方と後方の両方の転送を可能にします。
- 参考スコア(独自算出の注目度): 17.858926093389737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In lifelong learning, data are used to improve performance not only on the
current task, but also on previously encountered, and as yet unencountered
tasks. In contrast, classical machine learning, which we define as, starts from
a blank slate, or tabula rasa and uses data only for the single task at hand.
While typical transfer learning algorithms can improve performance on future
tasks, their performance on prior tasks degrades upon learning new tasks
(called forgetting). Many recent approaches for continual or lifelong learning
have attempted to maintain performance on old tasks given new tasks. But
striving to avoid forgetting sets the goal unnecessarily low. The goal of
lifelong learning should be not only to improve performance on future tasks
(forward transfer) but also on past tasks (backward transfer) with any new
data. Our key insight is that we can synergistically ensemble representations
-- that were learned independently on disparate tasks -- to enable both forward
and backward transfer. This generalizes ensembling decisions (like in decision
forests) and complements ensembling dependently learned representations (like
in multitask learning). Moreover, we can ensemble representations in
quasilinear space and time. We demonstrate this insight with two algorithms:
representation ensembles of (1) trees and (2) networks. Both algorithms
demonstrate forward and backward transfer in a variety of simulated and
benchmark data scenarios, including tabular, image, and spoken, and adversarial
tasks. This is in stark contrast to the reference algorithms we compared to,
most of which failed to transfer either forward or backward, or both, despite
that many of them require quadratic space or time complexity.
- Abstract(参考訳): 生涯学習では、データは現在のタスクだけでなく、以前に遭遇したタスクや、未報告のタスクでもパフォーマンスを向上させるために使用される。
対照的に、私たちが定義する古典的な機械学習は、空白のスレートまたはタブララサから始まり、手元にある1つのタスクにのみデータを使用する。
典型的な転送学習アルゴリズムは、将来のタスクのパフォーマンスを改善することができるが、以前のタスクのパフォーマンスは、新しいタスク(忘れること)を学ぶことで劣化する。
継続学習や生涯学習に対する近年の多くのアプローチは、新しいタスクが与えられた古いタスクのパフォーマンスを維持しようと試みている。
しかし、忘れないように努力することで目標が不必要に低いものになる。
生涯学習の目的は、将来のタスク(フォワード転送)のパフォーマンスを向上させるだけでなく、新しいデータで過去のタスク(バックワード転送)も改善することだ。
私たちの重要な洞察は、異なるタスクで独立して学習された表現を相乗的にアンサンブルすることで、前方と後方の両方の転送を可能にします。
これは(意思決定の森のような)集合決定を一般化し、(マルチタスク学習のような)依存的に学習された表現を補う。
さらに、準線形空間と時間で表現をアンサンブルすることができる。
この知見を,(1)木々の表現アンサンブルと(2)ネットワークの2つのアルゴリズムで示す。
どちらのアルゴリズムも、表や画像、話し言葉、敵対的なタスクなど、さまざまなシミュレーションおよびベンチマークデータシナリオで前方および後方への転送を示す。
これは、私たちが比較した基準アルゴリズムとは対照的で、その多くは2次空間や時間の複雑さを必要とするにもかかわらず、前方または後方、あるいは両方を転送できなかった。
関連論文リスト
- Continual Learning of Numerous Tasks from Long-tail Distributions [17.706669222987273]
継続的な学習は、以前獲得した知識を維持しながら、新しいタスクを学習し、適応するモデルの開発に焦点を当てる。
既存の連続学習アルゴリズムは、通常、一定の大きさの少数のタスクを伴い、現実世界の学習シナリオを正確に表現しないことがある。
本稿では,従来のタスクから第2モーメントの重み付け平均を維持することで,アダムの状態を再利用する手法を提案する。
提案手法は,既存のほとんどの連続学習アルゴリズムと互換性があり,少ない計算量やメモリコストで忘れを効果的に削減できることを実証する。
論文 参考訳(メタデータ) (2024-04-03T13:56:33Z) - Look-Ahead Selective Plasticity for Continual Learning of Visual Tasks [9.82510084910641]
タスク境界において,タスクが終了し,他のタスク開始時に発生する新しいメカニズムを提案する。
CIFAR10やTinyImagenetなどのコンピュータビジョンデータセットのベンチマークで提案手法を評価する。
論文 参考訳(メタデータ) (2023-11-02T22:00:23Z) - Multitask Learning with No Regret: from Improved Confidence Bounds to
Active Learning [79.07658065326592]
推定タスクの不確実性の定量化は、オンラインやアクティブな学習など、多くの下流アプリケーションにとって重要な課題である。
タスク間の類似性やタスクの特徴を学習者に提供できない場合、課題設定において新しいマルチタスク信頼区間を提供する。
本稿では,このパラメータを事前に知らないまま,このような改善された後悔を実現する新しいオンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-03T13:08:09Z) - Self-paced Weight Consolidation for Continual Learning [39.27729549041708]
連続学習アルゴリズムは、逐次的なタスク学習設定における破滅的な忘れ込みを防ぐのに人気がある。
継続学習を実現するために,自己ペーストウェイト統合(spWC)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-20T13:07:41Z) - Multi-Task Self-Supervised Time-Series Representation Learning [3.31490164885582]
時系列表現学習は、時間的ダイナミクスとスパースラベルを持つデータから表現を抽出することができる。
自己教師型タスクの利点を組み合わせた時系列表現学習手法を提案する。
本稿では,時系列分類,予測,異常検出という3つのダウンストリームタスクの枠組みについて検討する。
論文 参考訳(メタデータ) (2023-03-02T07:44:06Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - Learning Invariant Representation for Continual Learning [5.979373021392084]
継続的学習の重要な課題は、エージェントが新しいタスクに直面したときに、以前に学んだタスクを壊滅的に忘れることです。
連続学習のための学習不変表現(IRCL)という新しい擬似リハーサル法を提案する。
共有不変表現を分離することは、タスクのシーケンスを継続的に学習するのに役立つ。
論文 参考訳(メタデータ) (2021-01-15T15:12:51Z) - Parrot: Data-Driven Behavioral Priors for Reinforcement Learning [79.32403825036792]
そこで本研究では,実験で得られた複雑なインプット・アウトプット関係を事前に学習する手法を提案する。
RLエージェントが新規な動作を試す能力を阻害することなく、この学習が新しいタスクを迅速に学習するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-11-19T18:47:40Z) - COG: Connecting New Skills to Past Experience with Offline Reinforcement
Learning [78.13740204156858]
我々は、動的プログラミングによって新しいスキルを拡張するために、事前データを再利用できることを示します。
我々は、新しいタスクを解決するために、以前のデータセットに見られるいくつかの動作をチェーンすることで、アプローチの有効性を実証する。
我々は、高次元画像観察を低レベルのロボット制御コマンドにマッピングし、エンドツーエンドでポリシーを訓練する。
論文 参考訳(メタデータ) (2020-10-27T17:57:29Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Continual Learning in Low-rank Orthogonal Subspaces [86.36417214618575]
連続学習(CL)では、学習者は一連のタスクに直面して次々に到着し、学習経験が終わるとすべてのタスクを覚えることが目的である。
CLの以前の技術は、タスク間の干渉を減らすためにエピソードメモリ、パラメータ正規化、ネットワーク構造を使用していたが、最終的には、全てのアプローチが共同ベクトル空間で異なるタスクを学習する。
干渉を最小限に抑えるために互いに直交する異なる(低ランクな)ベクトル部分空間でタスクを学習することを提案する。
論文 参考訳(メタデータ) (2020-10-22T12:07:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。