論文の概要: How to Reuse and Compose Knowledge for a Lifetime of Tasks: A Survey on
Continual Learning and Functional Composition
- arxiv url: http://arxiv.org/abs/2207.07730v2
- Date: Tue, 13 Jun 2023 17:56:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 18:32:05.592521
- Title: How to Reuse and Compose Knowledge for a Lifetime of Tasks: A Survey on
Continual Learning and Functional Composition
- Title(参考訳): 課題の生涯における知識の再利用と構成方法:連続学習と機能構成に関する調査
- Authors: Jorge A. Mendez and Eric Eaton
- Abstract要約: 人工知能(AI)の主な目標は、世界の一般的な理解を得ることができるエージェントを作ることである。
生涯的あるいは継続的な学習はこの設定に対処し、エージェントは継続的な問題の流れに直面し、遭遇する各新しいタスクの解決に必要な知識を捉えなければならない。
この単純なアイデアの直感的な魅力にもかかわらず、生涯学習と作曲学習に関する文献は、大きく別々に進められている。
- 参考スコア(独自算出の注目度): 26.524289609910653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A major goal of artificial intelligence (AI) is to create an agent capable of
acquiring a general understanding of the world. Such an agent would require the
ability to continually accumulate and build upon its knowledge as it encounters
new experiences. Lifelong or continual learning addresses this setting, whereby
an agent faces a continual stream of problems and must strive to capture the
knowledge necessary for solving each new task it encounters. If the agent is
capable of accumulating knowledge in some form of compositional representation,
it could then selectively reuse and combine relevant pieces of knowledge to
construct novel solutions. Despite the intuitive appeal of this simple idea,
the literatures on lifelong learning and compositional learning have proceeded
largely separately. In an effort to promote developments that bridge between
the two fields, this article surveys their respective research landscapes and
discusses existing and future connections between them.
- Abstract(参考訳): 人工知能(AI)の主な目標は、世界の一般的な理解を得ることができるエージェントを作ることである。
そのようなエージェントは、新しい経験に遭遇すると、その知識を継続的に蓄積し、構築する能力を必要とします。
生涯的あるいは継続的な学習はこの設定に対処し、エージェントは継続的な問題の流れに直面し、遭遇する各新しいタスクの解決に必要な知識を捉えなければならない。
エージェントが何らかの構成表現の形で知識を蓄積できるならば、関連する知識を選択的に再利用し、組み合わせて新しいソリューションを構築することができる。
この単純なアイデアの直感的な魅力にもかかわらず、生涯学習と作曲学習に関する文学はほとんど別々に進んできた。
本稿は,両分野間の橋渡しの進展を促進するため,それぞれの研究景観を調査し,その現状と今後の関係について考察する。
関連論文リスト
- Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Continual Learning as Computationally Constrained Reinforcement Learning [23.88768480916785]
知識を効率的に蓄積し、長期間にわたって高度なスキルを身につけるエージェントは、人工知能能力のフロンティアを前進させるかもしれない。
このようなエージェントの設計は、人工知能の長年の課題であり続けており、継続的な学習の主題によって対処されている。
論文 参考訳(メタデータ) (2023-07-10T05:06:41Z) - A Comprehensive Survey of Continual Learning: Theory, Method and
Application [64.23253420555989]
本稿では,基礎的設定,理論的基礎,代表的方法,実践的応用を橋渡しする継続的学習に関する包括的調査を行う。
連続学習の一般的な目的は、資源効率の文脈において、適切な安定性と塑性のトレードオフと適切なタスク内/タスク内一般化性を保証することであると要約する。
論文 参考訳(メタデータ) (2023-01-31T11:34:56Z) - Unveiling the Tapestry: the Interplay of Generalization and Forgetting in Continual Learning [18.61040106667249]
AIでは、一般化とは、与えられたタスクに関連するアウト・オブ・ディストリビューション・データに対して、トレーニングされたデータ以外にうまく機能するモデルの能力を指す。
継続的な学習方法は、しばしば破滅的な忘れを軽減し、以前のタスクからの知識を確実に保持するメカニズムを含んでいる。
本稿では, 形状テクスチュア整合性規則化(STCR)と呼ばれる, 連続的な学習を支援する簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T04:36:24Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Integrating Diverse Knowledge Sources for Online One-shot Learning of
Novel Tasks [6.021787236982658]
シミュレーションされたオフィス用移動ロボットにおいて,オンラインで学習するための多様な知識源を活用することの課題と効果について検討する。
Soar認知アーキテクチャで開発されたエージェントは、以下のドメイン知識とタスク知識のソースを使用する。
その結果、エージェントの多様な知識ソースのオンライン統合は、全体的なワンショットタスク学習を改善することが示された。
論文 参考訳(メタデータ) (2022-08-19T21:53:15Z) - Transferability in Deep Learning: A Survey [80.67296873915176]
知識を習得し再利用する能力は、ディープラーニングにおける伝達可能性として知られている。
本研究は,深層学習における異なる孤立領域と伝達可能性との関係を関連付けるための調査である。
我々はベンチマークとオープンソースライブラリを実装し、転送可能性の観点からディープラーニング手法の公平な評価を可能にする。
論文 参考訳(メタデータ) (2022-01-15T15:03:17Z) - HALMA: Humanlike Abstraction Learning Meets Affordance in Rapid Problem
Solving [104.79156980475686]
人間は自然主義的タスクの構造に応じて構成的および因果的抽象化、つまり知識を学ぶ。
エージェントがその知識をどのように表現するかには、知覚、概念、アルゴリズムの3段階の一般化がある、と我々は主張する。
このベンチマークは、ビジュアルコンセプト開発と迅速な問題解決のための新しいタスクドメイン、HALMAを中心にしています。
論文 参考訳(メタデータ) (2021-02-22T20:37:01Z) - Latent Skill Planning for Exploration and Transfer [49.25525932162891]
本稿では,この2つの手法を1つの強化学習エージェントに統合する方法について検討する。
テスト時の高速適応に部分的償却の考え方を活用する。
私たちは、困難なロコモーションタスクのスイートでデザイン決定のメリットを実演しています。
論文 参考訳(メタデータ) (2020-11-27T18:40:03Z) - Lifelong Learning of Compositional Structures [26.524289609910653]
構成構造の生涯学習のための汎用フレームワークを提案する。
我々のフレームワークは学習プロセスを2つの広い段階に分け、新しい問題を同化するために既存のコンポーネントを最もうまく組み合わせる方法を学び、新しい問題に対応するために既存のコンポーネントの集合を適応する方法を学ぶ。
論文 参考訳(メタデータ) (2020-07-15T14:58:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。