論文の概要: Lightweight Learner for Shared Knowledge Lifelong Learning
- arxiv url: http://arxiv.org/abs/2305.15591v1
- Date: Wed, 24 May 2023 21:58:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 18:21:19.913555
- Title: Lightweight Learner for Shared Knowledge Lifelong Learning
- Title(参考訳): 共有知識生涯学習のための軽量学習者
- Authors: Yunhao Ge, Yuecheng Li, Di Wu, Ao Xu, Adam M. Jones, Amanda Sofie
Rios, Iordanis Fostiropoulos, Shixian Wen, Po-Hsuan Huang, Zachary William
Murdock, Gozde Sahin, Shuo Ni, Kiran Lekkala, Sumedh Anand Sontakke, Laurent
Itti
- Abstract要約: Lifelong Learning (LL)では、エージェントは新しい条件やタスクに遭遇しながら継続的に学習する。
現在のLLのほとんどは、タスクをシーケンシャルに学習する単一のエージェントに限られている。指定されたLLマシンは、新しいタスクが学習されると、古いタスクの忘れを緩和するためにデプロイされる。
LLエージェントの分散集団を配置し,それぞれが異なるタスクを逐次学習する共有知識生涯学習(SKILL)課題を提案する。
- 参考スコア(独自算出の注目度): 14.313127724087328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Lifelong Learning (LL), agents continually learn as they encounter new
conditions and tasks. Most current LL is limited to a single agent that learns
tasks sequentially. Dedicated LL machinery is then deployed to mitigate the
forgetting of old tasks as new tasks are learned. This is inherently slow. We
propose a new Shared Knowledge Lifelong Learning (SKILL) challenge, which
deploys a decentralized population of LL agents that each sequentially learn
different tasks, with all agents operating independently and in parallel. After
learning their respective tasks, agents share and consolidate their knowledge
over a decentralized communication network, so that, in the end, all agents can
master all tasks. We present one solution to SKILL which uses Lightweight
Lifelong Learning (LLL) agents, where the goal is to facilitate efficient
sharing by minimizing the fraction of the agent that is specialized for any
given task. Each LLL agent thus consists of a common task-agnostic immutable
part, where most parameters are, and individual task-specific modules that
contain fewer parameters but are adapted to each task. Agents share their
task-specific modules, plus summary information ("task anchors") representing
their tasks in the common task-agnostic latent space of all agents. Receiving
agents register each received task-specific module using the corresponding
anchor. Thus, every agent improves its ability to solve new tasks each time new
task-specific modules and anchors are received. On a new, very challenging
SKILL-102 dataset with 102 image classification tasks (5,033 classes in total,
2,041,225 training, 243,464 validation, and 243,464 test images), we achieve
much higher (and SOTA) accuracy over 8 LL baselines, while also achieving near
perfect parallelization. Code and data can be found at
https://github.com/gyhandy/Shared-Knowledge-Lifelong-Learning
- Abstract(参考訳): Lifelong Learning (LL)では、エージェントは新しい条件やタスクに遭遇しながら継続的に学習する。
現在のLLのほとんどは、タスクをシーケンシャルに学習する単一のエージェントに限られています。
専用のllマシンがデプロイされ、新しいタスクが学習されると、古いタスクが忘れられるのを緩和します。
これは本質的に遅い。
本稿では,llエージェントの分散集団を展開し,各エージェントが独立かつ並列に動作し,それぞれ異なるタスクを順次学習する,skill(shared knowledge lifelong learning)チャレンジを提案する。
各タスクを学習した後、エージェントは知識を分散化された通信ネットワーク上で共有し統合し、最終的にすべてのエージェントがすべてのタスクをマスターできるようにします。
SKILLは軽量生涯学習(LLL)エージェントを用いており、その目的は任意のタスクに特化しているエージェントの分数を最小化することで、効率的な共有を容易にすることである。
各LLLエージェントは、ほとんどのパラメータが存在する共通のタスクに依存しない不変部分と、より少ないパラメータを含む個々のタスク固有のモジュールから構成される。
エージェントはタスク固有のモジュールと、すべてのエージェントの共通タスク非依存の潜在空間におけるタスクを表す要約情報(タスクアンカー)を共有する。
受信エージェントは、受信した各タスク固有モジュールを対応するアンカーを使用して登録する。
したがって、各エージェントは、新しいタスク固有のモジュールとアンカーが受信されるたびに、新しいタスクを解決する能力を向上させる。
102のイメージ分類タスク(合計5,033のクラス、2,041,225のトレーニング、243,464のバリデーション、243,464のテストイメージ)を持つ新しい、非常に困難なSKILL-102データセット上では、ほぼ完全な並列化を実現しつつ、より高い精度(およびSOTA)を実現する。
コードとデータはhttps://github.com/gyhandy/shared-knowledge-lifelong-learningにある。
関連論文リスト
- Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Knowledge Assembly: Semi-Supervised Multi-Task Learning from Multiple
Datasets with Disjoint Labels [8.816979799419107]
マルチタスク学習(MTL)は適切な手法であるが、通常はすべてのタスクにラベル付けされたデータセットを必要とする。
MTLフレームワークのタスクのいくつかのみにラベル付けされたデータセットを活用できる手法を提案する。
我々の研究であるKnowledge Assembly(KA)は、ラベルのないデータを半教師付きで活用することで、不連続なデータセットから複数のタスクを学習する。
論文 参考訳(メタデータ) (2023-06-15T04:05:03Z) - Fast Inference and Transfer of Compositional Task Structures for
Few-shot Task Generalization [101.72755769194677]
本稿では,タスクがサブタスクグラフによって特徴づけられる,数発の強化学習問題として定式化する。
我々のマルチタスクサブタスクグラフ推論器(MTSGI)は、トレーニングタスクから、まず、サブタスクグラフの観点から、一般的なハイレベルなタスク構造を推測する。
提案手法は,2次元グリッドワールドおよび複雑なWebナビゲーション領域において,タスクの共通基盤構造を学習し,活用し,未知のタスクへの適応を高速化する。
論文 参考訳(メタデータ) (2022-05-25T10:44:25Z) - LDSA: Learning Dynamic Subtask Assignment in Cooperative Multi-Agent
Reinforcement Learning [122.47938710284784]
協調型MARLにおける動的サブタスク代入(LDSA)を学習するための新しいフレームワークを提案する。
エージェントを異なるサブタスクに合理的に割り当てるために,能力に基づくサブタスク選択戦略を提案する。
LDSAは、より優れたコラボレーションのために、合理的で効果的なサブタスクの割り当てを学習していることを示す。
論文 参考訳(メタデータ) (2022-05-05T10:46:16Z) - Modular Adaptive Policy Selection for Multi-Task Imitation Learning
through Task Division [60.232542918414985]
マルチタスク学習は、しばしば負の伝達に悩まされ、タスク固有の情報を共有する。
これは、プロトポリケーションをモジュールとして使用して、タスクを共有可能な単純なサブ振る舞いに分割する。
また、タスクを共有サブ行動とタスク固有のサブ行動の両方に自律的に分割する能力を示す。
論文 参考訳(メタデータ) (2022-03-28T15:53:17Z) - Learning Multi-Tasks with Inconsistent Labels by using Auxiliary Big
Task [24.618094251341958]
マルチタスク学習は,タスク間の共通知識の伝達と活用により,モデルの性能を向上させることを目的とする。
本稿では,これらの課題をカバーするために,学習した補助的大タスクから豊富な情報と十分な数のクラスを両立させることにより,これらの課題を学習するための枠組みを提案する。
実験により, 現状のアプローチと比較し, その有効性を示した。
論文 参考訳(メタデータ) (2022-01-07T02:46:47Z) - CoMPS: Continual Meta Policy Search [113.33157585319906]
逐次マルチタスク学習における課題に対処する新しいメタ学習法を開発した。
CoMPSは、いくつかの課題のある連続制御タスクにおいて、事前の継続的な学習や外部のメタ強化手法よりも優れていることが判明した。
論文 参考訳(メタデータ) (2021-12-08T18:53:08Z) - Variational Automatic Curriculum Learning for Sparse-Reward Cooperative
Multi-Agent Problems [42.973910399533054]
協調型マルチエージェント強化学習の課題を解決するために,カリキュラム学習アルゴリズムである変分自動カリキュラム学習(VACL)を導入する。
VACLアルゴリズムはこの変分パラダイムを,タスク拡張とエンティティ進行という2つの実践的要素で実現している。
実験の結果,VACLはスパース・リワード問題の集合を多数のエージェントで解くことがわかった。
論文 参考訳(メタデータ) (2021-11-08T16:35:08Z) - Continuous Coordination As a Realistic Scenario for Lifelong Learning [6.044372319762058]
ゼロショット設定と少数ショット設定の両方をサポートするマルチエージェント生涯学習テストベッドを導入する。
最近のMARL法、および制限メモリおよび計算における最新のLLLアルゴリズムのベンチマークを評価します。
我々は経験的に、我々の設定で訓練されたエージェントは、以前の作業による追加の仮定なしに、未発見のエージェントとうまく協調できることを示します。
論文 参考訳(メタデータ) (2021-03-04T18:44:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。