論文の概要: Self-Initiated Open World Learning for Autonomous AI Agents
- arxiv url: http://arxiv.org/abs/2110.11385v3
- Date: Thu, 29 Feb 2024 04:50:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 19:25:36.158749
- Title: Self-Initiated Open World Learning for Autonomous AI Agents
- Title(参考訳): 自律型aiエージェントのための自己開始型オープンワールド学習
- Authors: Bing Liu, Eric Robertson, Scott Grigsby, Sahisnu Mazumder
- Abstract要約: 実際にAIエージェントが使われるようになるにつれて、エージェントを完全に自律的にする方法を考える時が来た。
本稿では,自己開始型オープンワールド学習エージェントの構築研究を促進するための,この学習パラダイムの理論的枠組みを提案する。
- 参考スコア(独自算出の注目度): 16.41396764793912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As more and more AI agents are used in practice, it is time to think about
how to make these agents fully autonomous so that they can learn by themselves
in a self-motivated and self-supervised manner rather than being retrained
periodically on the initiation of human engineers using expanded training data.
As the real-world is an open environment with unknowns or novelties, detecting
novelties or unknowns, characterizing them, accommodating or adapting to them,
gathering ground-truth training data, and incrementally learning the
unknowns/novelties are critical to making the agent more and more knowledgeable
and powerful over time. The key challenge is how to automate the process so
that it is carried out on the agent's own initiative and through its own
interactions with humans and the environment. Since an AI agent usually has a
performance task, characterizing each novelty becomes critical and necessary so
that the agent can formulate an appropriate response to adapt its behavior to
accommodate the novelty and to learn from it to improve the agent's adaptation
capability and task performance. The process goes continually without
termination. This paper proposes a theoretic framework for this learning
paradigm to promote the research of building Self-initiated Open world Learning
(SOL) agents. An example SOL agent is also described.
- Abstract(参考訳): より多くのaiエージェントが実際に使われるようになるにつれ、トレーニングデータの拡張を使用して、人間エンジニアの開始に定期的に再訓練されるのではなく、自己モチベーションと自己監督の方法で学習できるように、これらのエージェントを完全自律的にする方法を考える時が来ている。
現実の世界は未知やノベルティを持つオープン環境であり、ノベルティや未知を検知し、特徴付けし、それらに適応し、適応し、真正なトレーニングデータを集め、未知/ノベルティを段階的に学習することは、エージェントを時間とともにより知識豊かで強力にする上で重要である。
主要な課題は、エージェント自身のイニシアチブや、人間や環境との相互作用を通じて実行されるように、プロセスを自動化することである。
aiエージェントは通常、パフォーマンスタスクを持っているので、各新規性の特徴付けが重要かつ必要になるので、エージェントは、その新規性に適応するために適切な応答を定式化し、その振る舞いから学習することで、エージェントの適応能力とタスクパフォーマンスを向上させることができる。
プロセスは終了せずに継続します。
本稿では、自己開始型オープンワールドラーニング(SOL)エージェントの構築研究を促進するための学習パラダイムの理論的枠組みを提案する。
例として、SOLエージェントを挙げる。
関連論文リスト
- Memento No More: Coaching AI Agents to Master Multiple Tasks via Hints Internalization [56.674356045200696]
本稿では,複雑なメモシステムや事前の高品質な実演データを必要としない,複数のタスクに対する知識とスキルを取り入れたAIエージェントの訓練手法を提案する。
このアプローチでは,エージェントが新たな経験を収集し,ヒントの形で人間から補正フィードバックを受け取り,このフィードバックを重みに組み込む,反復的なプロセスを採用している。
Llama-3 をベースとしたエージェントに実装することで,提案手法の有効性を実証し,数ラウンドのフィードバックの後,高度なモデル GPT-4o と DeepSeek-V3 をタスクセットで向上させる。
論文 参考訳(メタデータ) (2025-02-03T17:45:46Z) - Agents Are Not Enough [16.142735071162765]
人間のために行動する自律プログラムは、メインストリームのAIムーブメントに新しくも排他的でもない。
現在のエージェントの波を効果的かつ持続可能なものにするために,ユーザの好みや行動を表すSimsや,直接ユーザと対話し,エージェントの助けを借りてユーザタスクの実行をコーディネートするAssistantsを含むエコシステムを構想する。
論文 参考訳(メタデータ) (2024-12-19T16:54:17Z) - Proposer-Agent-Evaluator(PAE): Autonomous Skill Discovery For Foundation Model Internet Agents [64.75036903373712]
Proposer-Agent-Evaluatorは、基礎モデルエージェントが野生のスキルを自律的に発見し、実践することを可能にする学習システムである。
PAEの中心となるタスクプロポーサは、エージェントがコンテキスト情報で実践するためのタスクを自律的に提案するコンテキスト対応タスクプロポーサである。
成功評価は、エージェントがRLを介してポリシーを洗練するための報酬信号として機能する。
論文 参考訳(メタデータ) (2024-12-17T18:59:50Z) - Gödel Agent: A Self-Referential Agent Framework for Recursive Self-Improvement [117.94654815220404]
G"odel AgentはG"odelマシンにインスパイアされた自己進化型フレームワークである。
G"odel Agentは、パフォーマンス、効率、一般化性において手作業によるエージェントを上回る、継続的な自己改善を実現することができる。
論文 参考訳(メタデータ) (2024-10-06T10:49:40Z) - Symbolic Learning Enables Self-Evolving Agents [55.625275970720374]
エージェントシンボリックラーニング(エージェントシンボリックラーニング)(エージェントシンボリックラーニング)は、言語エージェントが自分自身で最適化できるための体系的なフレームワークである。
エージェント記号学習は、コネクショナリズム学習における2つの基本的なアルゴリズムを模倣することにより、言語エージェント内のシンボルネットワークを最適化するように設計されている。
我々は、標準ベンチマークと複雑な実世界のタスクの両方で概念実証実験を行う。
論文 参考訳(メタデータ) (2024-06-26T17:59:18Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Efficient Open-world Reinforcement Learning via Knowledge Distillation
and Autonomous Rule Discovery [5.680463564655267]
ルール駆動のディープラーニングエージェント(RDQ)がフレームワークの実装の可能な1つだ。
RDQは,世界との対話において,タスク固有のルールを抽出することに成功した。
実験では,RDQエージェントはベースラインエージェントよりも新規性に非常に耐性があることが示されている。
論文 参考訳(メタデータ) (2023-11-24T04:12:50Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - AI Autonomy : Self-Initiated Open-World Continual Learning and
Adaptation [16.96197233523911]
本稿では,自律的かつ連続的な学習が可能なAIエージェントを構築するためのフレームワークを提案する。
重要な課題は、エージェント自身のイニシアチブで継続的に実行されるように、プロセスを自動化する方法である。
論文 参考訳(メタデータ) (2022-03-17T00:07:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。