論文の概要: Self-Initiated Open World Learning for Autonomous AI Agents
- arxiv url: http://arxiv.org/abs/2110.11385v1
- Date: Thu, 21 Oct 2021 18:11:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 14:39:20.574442
- Title: Self-Initiated Open World Learning for Autonomous AI Agents
- Title(参考訳): 自律型aiエージェントのための自己開始型オープンワールド学習
- Authors: Bing Liu, Eric Robertson, Scott Grigsby, Sahisnu Mazumder
- Abstract要約: 実際にAIエージェントが使われるようになるにつれて、エージェントを完全に自律的にする方法を考える時が来た。
本稿では,自己開始型オープンワールド学習エージェントの構築研究を促進するための,この学習パラダイムの理論的枠組みを提案する。
- 参考スコア(独自算出の注目度): 11.485874136419579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As more and more AI agents are used in practice, it is time to think about
how to make these agents fully autonomous so that they can learn by themselves
in a self-motivated and self-supervised manner rather than being retrained
periodically on the initiation of human engineers using expanded training data.
As the real-world is an open environment with unknowns or novelties, detecting
novelties or unknowns, gathering ground-truth training data, and incrementally
learning the unknowns make the agent more and more knowledgeable and powerful
over time. The key challenge is how to automate the process so that it is
carried out on the agent's own initiative and through its own interactions with
humans and the environment. Since an AI agent usually has a performance task,
characterizing each novelty becomes necessary so that the agent can formulate
an appropriate response to adapt its behavior to cope with the novelty and to
learn from it to improve its future responses and task performance. This paper
proposes a theoretic framework for this learning paradigm to promote the
research of building self-initiated open world learning agents.
- Abstract(参考訳): より多くのaiエージェントが実際に使われるようになるにつれ、トレーニングデータの拡張を使用して、人間エンジニアの開始に定期的に再訓練されるのではなく、自己モチベーションと自己監督の方法で学習できるように、これらのエージェントを完全自律的にする方法を考える時が来ている。
現実の世界は未知や新奇な環境であり、新しいものや未知を検知し、真実のトレーニングデータを収集し、その未知を漸進的に学習することで、エージェントは時間とともにより理解され、強力になる。
主要な課題は、エージェント自身のイニシアチブや、人間や環境との相互作用を通じて実行されるように、プロセスを自動化することである。
AIエージェントは、通常、パフォーマンスタスクを有するため、各新規性を特徴付ける必要があるため、エージェントは、その新規性に対応するためにその振る舞いに適応し、そこから学び、将来の応答とタスクパフォーマンスを改善することができる。
本稿では,自己開始型オープンワールド学習エージェントの構築研究を促進するための学習パラダイムの理論的枠組みを提案する。
関連論文リスト
- Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Efficient Open-world Reinforcement Learning via Knowledge Distillation
and Autonomous Rule Discovery [5.680463564655267]
ルール駆動のディープラーニングエージェント(RDQ)がフレームワークの実装の可能な1つだ。
RDQは,世界との対話において,タスク固有のルールを抽出することに成功した。
実験では,RDQエージェントはベースラインエージェントよりも新規性に非常に耐性があることが示されている。
論文 参考訳(メタデータ) (2023-11-24T04:12:50Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Characterizing Novelty in the Military Domain [0.0]
運用において、リッチな環境は、トレーニングセットやエンジニアリングモデルで説明されていない課題を提示する可能性が高い。
国防高等研究計画局(DARPA)のプログラムは、新規性に堅牢なエージェントの開発を目指している。
この能力は、ミッションクリティカルな環境の中でAIが想定される役割の前に必要となる。
論文 参考訳(メタデータ) (2023-02-23T20:21:24Z) - AI Autonomy : Self-Initiated Open-World Continual Learning and
Adaptation [16.96197233523911]
本稿では,自律的かつ連続的な学習が可能なAIエージェントを構築するためのフレームワークを提案する。
重要な課題は、エージェント自身のイニシアチブで継続的に実行されるように、プロセスを自動化する方法である。
論文 参考訳(メタデータ) (2022-03-17T00:07:02Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z) - Emergent Social Learning via Multi-agent Reinforcement Learning [91.57176641192771]
社会学習は、人間と動物の知性の重要な構成要素である。
本稿では,独立系強化学習エージェントが,社会的学習を用いてパフォーマンスを向上させることを学べるかどうかを検討する。
論文 参考訳(メタデータ) (2020-10-01T17:54:14Z) - Safe Reinforcement Learning via Curriculum Induction [94.67835258431202]
安全クリティカルなアプリケーションでは、自律エージェントはミスが非常にコストがかかる環境で学ぶ必要がある。
既存の安全な強化学習手法は、エージェントが危険な状況を避けるために、事前にエージェントを頼りにしている。
本稿では,エージェントが自動インストラクターの指導の下で学習する,人間の指導にインスパイアされた代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T10:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。