論文の概要: A Combinatorial Perspective on Transfer Learning
- arxiv url: http://arxiv.org/abs/2010.12268v1
- Date: Fri, 23 Oct 2020 09:53:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 21:50:10.108824
- Title: A Combinatorial Perspective on Transfer Learning
- Title(参考訳): 転校学習におけるコンビネート的視点
- Authors: Jianan Wang, Eren Sezener, David Budden, Marcus Hutter, Joel Veness
- Abstract要約: モジュラーソリューションの学習によって、目に見えない分散データと潜在的に異なる分散データの両方を効果的に一般化することができるかを検討する。
タスクセグメンテーション,モジュール型学習,メモリベースアンサンブルの組み合わせによって,指数関数的に増加する多くの未確認タスクの一般化がもたらされる。
- 参考スコア(独自算出の注目度): 27.7848044115664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human intelligence is characterized not only by the capacity to learn complex
skills, but the ability to rapidly adapt and acquire new skills within an
ever-changing environment. In this work we study how the learning of modular
solutions can allow for effective generalization to both unseen and potentially
differently distributed data. Our main postulate is that the combination of
task segmentation, modular learning and memory-based ensembling can give rise
to generalization on an exponentially growing number of unseen tasks. We
provide a concrete instantiation of this idea using a combination of: (1) the
Forget-Me-Not Process, for task segmentation and memory based ensembling; and
(2) Gated Linear Networks, which in contrast to contemporary deep learning
techniques use a modular and local learning mechanism. We demonstrate that this
system exhibits a number of desirable continual learning properties: robustness
to catastrophic forgetting, no negative transfer and increasing levels of
positive transfer as more tasks are seen. We show competitive performance
against both offline and online methods on standard continual learning
benchmarks.
- Abstract(参考訳): 人間の知性は、複雑なスキルを学ぶ能力だけでなく、変化し続ける環境の中で素早く適応し、新しいスキルを獲得する能力によって特徴づけられる。
本研究では、モジュラーソリューションの学習によって、目に見えないデータと潜在的に異なる分散データの両方を効果的に一般化する方法について研究する。
タスクセグメンテーション,モジュール型学習,メモリベースアンサンブルの組み合わせによって,指数関数的に増加する多くの未確認タスクの一般化がもたらされる。
1)タスクセグメンテーションとメモリベースのセンシングのためのleath-me-notプロセス、(2)現代のディープラーニング技術がモジュラーでローカルな学習メカニズムを使用しているのとは対照的にゲート付き線形ネットワークという組み合わせを用いて、このアイデアを具体化する。
本システムでは, 破滅的な記憶への頑健性, 負の伝達がないこと, 正の伝達レベルが増加することなど, 望ましい連続学習特性を数多く示している。
標準連続学習ベンチマークにおいて,オフライン・オンライン両手法の競合性能を示す。
関連論文リスト
- Interactive Continual Learning: Fast and Slow Thinking [19.253164551254734]
本稿では,対話型連続学習フレームワークを提案する。
System1におけるメモリ検索を改善するために,von Mises-Fisher(vMF)分布に基づくCL-vMF機構を導入する。
提案したICLの包括的評価は,既存の手法と比較して,忘れられ,優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-05T03:37:28Z) - SAPT: A Shared Attention Framework for Parameter-Efficient Continual Learning of Large Language Models [71.78800549517298]
大規模言語モデル(LLM)を動的世界に展開するには,継続的な学習(CL)能力が不可欠である。
既存の方法は、パラメータ効率チューニング(PET)ブロックを用いてタスク固有の知識を取得するための学習モジュールと、テスト入力に対して対応するものを選択するための選択モジュールを考案する。
本稿では,共有注意学習と選択モジュールを通じてPET学習と選択を調整するための新しい共有注意フレームワーク(SAPT)を提案する。
論文 参考訳(メタデータ) (2024-01-16T11:45:03Z) - Learning Unseen Modality Interaction [54.23533023883659]
マルチモーダル学習は、すべてのモダリティの組み合わせが訓練中に利用でき、クロスモーダル対応を学ぶことを前提としている。
我々は、目に見えないモダリティ相互作用の問題を提起し、第1の解を導入する。
異なるモジュラリティの多次元的特徴を、豊富な情報を保存した共通空間に投影するモジュールを利用する。
論文 参考訳(メタデータ) (2023-06-22T10:53:10Z) - Class-Incremental Learning via Knowledge Amalgamation [14.513858688486701]
破滅的な忘れ込みは、継続的な学習環境におけるディープラーニングアルゴリズムの展開を妨げる重要な問題である。
我々は、知識の融合(CFA)による破滅的な忘れを解消するための代替戦略を提唱した。
CFAは、過去のタスクに特化した複数の異種教師モデルから学生ネットワークを学習し、現在のオフライン手法に適用することができる。
論文 参考訳(メタデータ) (2022-09-05T19:49:01Z) - Combining Modular Skills in Multitask Learning [149.8001096811708]
モジュラー設計は、ニューラルネットワークが様々な知識の面をアンタングルして再結合し、新しいタスクにより系統的に一般化することを奨励する。
この研究では、各タスクは(潜在的に小さな)インベントリから潜在的な離散スキルのサブセットと関連付けられていると仮定する。
ネットワークのモジュラー設計により、強化学習におけるサンプル効率が著しく向上し、教師あり学習における数ショットの一般化が図られる。
論文 参考訳(メタデータ) (2022-02-28T16:07:19Z) - Dual Path Structural Contrastive Embeddings for Learning Novel Objects [6.979491536753043]
近年の研究では、優れた特徴空間の情報を取得することが、少数のタスクにおいて良好なパフォーマンスを達成するための効果的な解決法であることが示されている。
特徴表現と分類器を学習するタスクを分離する,単純だが効果的なパラダイムを提案する。
提案手法は, インダクティブ推論とトランスダクティブ推論のいずれにおいても, 標準および一般化された少数ショット問題に対して有望な結果が得られる。
論文 参考訳(メタデータ) (2021-12-23T04:43:31Z) - Essentials for Class Incremental Learning [43.306374557919646]
CIFAR-100とImageNetのクラスインクリメンタルな学習結果は、アプローチをシンプルに保ちながら、最先端の成果を大きなマージンで改善します。
論文 参考訳(メタデータ) (2021-02-18T18:01:06Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z) - Uniform Priors for Data-Efficient Transfer [65.086680950871]
もっとも移動可能な特徴は埋め込み空間において高い均一性を有することを示す。
我々は、未確認のタスクやデータへの適応を容易にする能力の正規化を評価する。
論文 参考訳(メタデータ) (2020-06-30T04:39:36Z) - Provable Meta-Learning of Linear Representations [114.656572506859]
我々は、複数の関連するタスクから共通の機能の集合を学習し、その知識を新しい未知のタスクに転送する、という2つの課題に対処する、高速でサンプル効率のアルゴリズムを提供する。
また、これらの線形特徴を学習する際のサンプルの複雑さに関する情報理論の下限も提供する。
論文 参考訳(メタデータ) (2020-02-26T18:21:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。