論文の概要: Learn to Bind and Grow Neural Structures
- arxiv url: http://arxiv.org/abs/2011.10568v1
- Date: Sat, 21 Nov 2020 09:40:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 22:58:52.344031
- Title: Learn to Bind and Grow Neural Structures
- Title(参考訳): 結合と成長する神経構造を学ぶ
- Authors: Azhar Shaikh, Nishant Sinha
- Abstract要約: 我々は、新しいタスクのためのニューラルアーキテクチャを漸進的に学習する新しいフレームワーク、Learning to Bind and Growを紹介する。
私たちのアプローチの中心は、共有マルチタスクアーキテクチャ空間の新しい、解釈可能な、パラメータ化です。
連続学習ベンチマークの実験により、我々のフレームワークは、以前の拡張ベースのアプローチと相容れない性能を示した。
- 参考スコア(独自算出の注目度): 0.3553493344868413
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Task-incremental learning involves the challenging problem of learning new
tasks continually, without forgetting past knowledge. Many approaches address
the problem by expanding the structure of a shared neural network as tasks
arrive, but struggle to grow optimally, without losing past knowledge. We
present a new framework, Learn to Bind and Grow, which learns a neural
architecture for a new task incrementally, either by binding with layers of a
similar task or by expanding layers which are more likely to conflict between
tasks. Central to our approach is a novel, interpretable, parameterization of
the shared, multi-task architecture space, which then enables computing
globally optimal architectures using Bayesian optimization. Experiments on
continual learning benchmarks show that our framework performs comparably with
earlier expansion based approaches and is able to flexibly compute multiple
optimal solutions with performance-size trade-offs.
- Abstract(参考訳): タスクインクリメンタル学習は、過去の知識を忘れることなく、新しいタスクを継続的に学習する難しい問題を伴う。
多くのアプローチは、タスクが到着するにつれて共有ニューラルネットワークの構造を拡張することでこの問題に対処するが、過去の知識を失うことなく最適な成長に苦慮する。
我々は新しいフレームワークであるLearn to Bind and Growを紹介し、同様のタスクのレイヤとバインドするか、タスク間の衝突しやすいレイヤを拡張することによって、新しいタスクのためのニューラルアーキテクチャを漸進的に学習する。
我々のアプローチの中心は、共有マルチタスクアーキテクチャ空間の新しく解釈可能なパラメータ化であり、ベイズ最適化を用いてグローバルに最適なアーキテクチャを計算できる。
連続学習ベンチマーク実験の結果,従来の拡張ベースアプローチと相性が良く,複数の最適解を柔軟に計算できることがわかった。
関連論文リスト
- I Know How: Combining Prior Policies to Solve New Tasks [17.214443593424498]
マルチタスク強化学習は、継続的に進化し、新しいシナリオに適応できるエージェントを開発することを目的としている。
新しいタスクごとにスクラッチから学ぶことは、実行可能な、あるいは持続可能な選択肢ではない。
我々は、共通の形式を提供する新しいフレームワーク、I Know Howを提案する。
論文 参考訳(メタデータ) (2024-06-14T08:44:51Z) - Learning Good Features to Transfer Across Tasks and Domains [16.05821129333396]
まず、与えられたドメイン内のタスク固有の深い機能間のマッピングを学習することで、タスク間でそのような知識を共有できることを示します。
そして、ニューラルネットワークによって実装されたこのマッピング関数が、新しい未知の領域に一般化可能であることを示す。
論文 参考訳(メタデータ) (2023-01-26T18:49:39Z) - Hierarchically Structured Task-Agnostic Continual Learning [0.0]
本研究では,連続学習のタスク非依存的な視点を取り入れ,階層的情報理論の最適性原理を考案する。
我々は,情報処理経路の集合を作成することで,忘れを緩和する,Mixture-of-Variational-Experts層と呼ばれるニューラルネットワーク層を提案する。
既存の連続学習アルゴリズムのようにタスク固有の知識を必要としない。
論文 参考訳(メタデータ) (2022-11-14T19:53:15Z) - Fast Inference and Transfer of Compositional Task Structures for
Few-shot Task Generalization [101.72755769194677]
本稿では,タスクがサブタスクグラフによって特徴づけられる,数発の強化学習問題として定式化する。
我々のマルチタスクサブタスクグラフ推論器(MTSGI)は、トレーニングタスクから、まず、サブタスクグラフの観点から、一般的なハイレベルなタスク構造を推測する。
提案手法は,2次元グリッドワールドおよび複雑なWebナビゲーション領域において,タスクの共通基盤構造を学習し,活用し,未知のタスクへの適応を高速化する。
論文 参考訳(メタデータ) (2022-05-25T10:44:25Z) - Architecture Matters in Continual Learning [43.36462900350999]
アーキテクチャの選択が継続的な学習性能に大きな影響を及ぼすことを示す。
本研究は,継続的な学習性能を向上させるためのベストプラクティスと勧告を提示する。
論文 参考訳(メタデータ) (2022-02-01T08:32:22Z) - Multi-Task Learning with Sequence-Conditioned Transporter Networks [67.57293592529517]
シーケンスコンディショニングと重み付きサンプリングのレンズによるマルチタスク学習の実現を目指している。
合成タスクを対象とした新しいベンチマークであるMultiRavensを提案する。
次に,視覚に基づくエンドツーエンドシステムアーキテクチャであるSequence-Conditioned Transporter Networksを提案する。
論文 参考訳(メタデータ) (2021-09-15T21:19:11Z) - Investigating Bi-Level Optimization for Learning and Vision from a
Unified Perspective: A Survey and Beyond [114.39616146985001]
機械学習やコンピュータビジョンの分野では、モチベーションやメカニズムが異なるにもかかわらず、複雑な問題の多くは、一連の密接に関連するサブプロトコルを含んでいる。
本稿では,BLO(Bi-Level Optimization)の観点から,これらの複雑な学習と視覚問題を一様に表現する。
次に、値関数に基づく単一レベル再構成を構築し、主流勾配に基づくBLO手法を理解し、定式化するための統一的なアルゴリズムフレームワークを確立する。
論文 参考訳(メタデータ) (2021-01-27T16:20:23Z) - Importance Weighted Policy Learning and Adaptation [89.46467771037054]
政治外学習の最近の進歩の上に構築された,概念的にシンプルで,汎用的で,モジュール的な補完的アプローチについて検討する。
このフレームワークは確率論的推論文学のアイデアにインスパイアされ、堅牢な非政治学習と事前の行動を組み合わせる。
提案手法は,メタ強化学習ベースラインと比較して,ホールドアウトタスクにおける競合適応性能を実現し,複雑なスパース・リワードシナリオにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-10T14:16:58Z) - Automated Search for Resource-Efficient Branched Multi-Task Networks [81.48051635183916]
我々は,多タスクニューラルネットワークにおける分岐構造を自動的に定義する,微分可能なニューラルネットワーク探索に根ざした原理的アプローチを提案する。
本手法は,限られた資源予算内で高い性能の分岐構造を見いだすことができる。
論文 参考訳(メタデータ) (2020-08-24T09:49:19Z) - Adversarial Continual Learning [99.56738010842301]
本稿では,タスク不変およびタスク特化機能に対する不整合表現を学習するハイブリッド連続学習フレームワークを提案する。
本モデルでは,タスク固有のスキルの忘れを防止するためにアーキテクチャの成長と,共有スキルを維持するための経験的リプレイアプローチを組み合わせる。
論文 参考訳(メタデータ) (2020-03-21T02:08:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。