論文の概要: Self-Initiated Open World Learning for Autonomous AI Agents
- arxiv url: http://arxiv.org/abs/2110.11385v3
- Date: Thu, 29 Feb 2024 04:50:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 19:25:36.158749
- Title: Self-Initiated Open World Learning for Autonomous AI Agents
- Title(参考訳): 自律型aiエージェントのための自己開始型オープンワールド学習
- Authors: Bing Liu, Eric Robertson, Scott Grigsby, Sahisnu Mazumder
- Abstract要約: 実際にAIエージェントが使われるようになるにつれて、エージェントを完全に自律的にする方法を考える時が来た。
本稿では,自己開始型オープンワールド学習エージェントの構築研究を促進するための,この学習パラダイムの理論的枠組みを提案する。
- 参考スコア(独自算出の注目度): 16.41396764793912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As more and more AI agents are used in practice, it is time to think about
how to make these agents fully autonomous so that they can learn by themselves
in a self-motivated and self-supervised manner rather than being retrained
periodically on the initiation of human engineers using expanded training data.
As the real-world is an open environment with unknowns or novelties, detecting
novelties or unknowns, characterizing them, accommodating or adapting to them,
gathering ground-truth training data, and incrementally learning the
unknowns/novelties are critical to making the agent more and more knowledgeable
and powerful over time. The key challenge is how to automate the process so
that it is carried out on the agent's own initiative and through its own
interactions with humans and the environment. Since an AI agent usually has a
performance task, characterizing each novelty becomes critical and necessary so
that the agent can formulate an appropriate response to adapt its behavior to
accommodate the novelty and to learn from it to improve the agent's adaptation
capability and task performance. The process goes continually without
termination. This paper proposes a theoretic framework for this learning
paradigm to promote the research of building Self-initiated Open world Learning
(SOL) agents. An example SOL agent is also described.
- Abstract(参考訳): より多くのaiエージェントが実際に使われるようになるにつれ、トレーニングデータの拡張を使用して、人間エンジニアの開始に定期的に再訓練されるのではなく、自己モチベーションと自己監督の方法で学習できるように、これらのエージェントを完全自律的にする方法を考える時が来ている。
現実の世界は未知やノベルティを持つオープン環境であり、ノベルティや未知を検知し、特徴付けし、それらに適応し、適応し、真正なトレーニングデータを集め、未知/ノベルティを段階的に学習することは、エージェントを時間とともにより知識豊かで強力にする上で重要である。
主要な課題は、エージェント自身のイニシアチブや、人間や環境との相互作用を通じて実行されるように、プロセスを自動化することである。
aiエージェントは通常、パフォーマンスタスクを持っているので、各新規性の特徴付けが重要かつ必要になるので、エージェントは、その新規性に適応するために適切な応答を定式化し、その振る舞いから学習することで、エージェントの適応能力とタスクパフォーマンスを向上させることができる。
プロセスは終了せずに継続します。
本稿では、自己開始型オープンワールドラーニング(SOL)エージェントの構築研究を促進するための学習パラダイムの理論的枠組みを提案する。
例として、SOLエージェントを挙げる。
関連論文リスト
- Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Efficient Open-world Reinforcement Learning via Knowledge Distillation
and Autonomous Rule Discovery [5.680463564655267]
ルール駆動のディープラーニングエージェント(RDQ)がフレームワークの実装の可能な1つだ。
RDQは,世界との対話において,タスク固有のルールを抽出することに成功した。
実験では,RDQエージェントはベースラインエージェントよりも新規性に非常に耐性があることが示されている。
論文 参考訳(メタデータ) (2023-11-24T04:12:50Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Characterizing Novelty in the Military Domain [0.0]
運用において、リッチな環境は、トレーニングセットやエンジニアリングモデルで説明されていない課題を提示する可能性が高い。
国防高等研究計画局(DARPA)のプログラムは、新規性に堅牢なエージェントの開発を目指している。
この能力は、ミッションクリティカルな環境の中でAIが想定される役割の前に必要となる。
論文 参考訳(メタデータ) (2023-02-23T20:21:24Z) - AI Autonomy : Self-Initiated Open-World Continual Learning and
Adaptation [16.96197233523911]
本稿では,自律的かつ連続的な学習が可能なAIエージェントを構築するためのフレームワークを提案する。
重要な課題は、エージェント自身のイニシアチブで継続的に実行されるように、プロセスを自動化する方法である。
論文 参考訳(メタデータ) (2022-03-17T00:07:02Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z) - Emergent Social Learning via Multi-agent Reinforcement Learning [91.57176641192771]
社会学習は、人間と動物の知性の重要な構成要素である。
本稿では,独立系強化学習エージェントが,社会的学習を用いてパフォーマンスを向上させることを学べるかどうかを検討する。
論文 参考訳(メタデータ) (2020-10-01T17:54:14Z) - Safe Reinforcement Learning via Curriculum Induction [94.67835258431202]
安全クリティカルなアプリケーションでは、自律エージェントはミスが非常にコストがかかる環境で学ぶ必要がある。
既存の安全な強化学習手法は、エージェントが危険な状況を避けるために、事前にエージェントを頼りにしている。
本稿では,エージェントが自動インストラクターの指導の下で学習する,人間の指導にインスパイアされた代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T10:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。