論文の概要: Hierarchical Needs-driven Agent Learning Systems: From Deep
Reinforcement Learning To Diverse Strategies
- arxiv url: http://arxiv.org/abs/2302.13132v1
- Date: Sat, 25 Feb 2023 18:18:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 18:49:24.171227
- Title: Hierarchical Needs-driven Agent Learning Systems: From Deep
Reinforcement Learning To Diverse Strategies
- Title(参考訳): 階層的ニーズ駆動エージェント学習システム:深層強化学習から多様な戦略へ
- Authors: Qin Yang
- Abstract要約: 深層強化学習(DAL)は、AIエージェントが行動や戦略を組織化し、最適化し、多様な戦略を開発するのに役立つ。
本稿では,DALに基づく新しい階層型要求駆動学習システムを導入し,ベイジアンソフトアクター批判(BSAC)と呼ばれる新しいアプローチによる単一ロボットの実装について検討する。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The needs describe the necessities for a system to survive and evolve, which
arouses an agent to action toward a goal, giving purpose and direction to
behavior. Based on Maslow hierarchy of needs, an agent needs to satisfy a
certain amount of needs at the current level as a condition to arise at the
next stage -- upgrade and evolution. Especially, Deep Reinforcement Learning
(DAL) can help AI agents (like robots) organize and optimize their behaviors
and strategies to develop diverse Strategies based on their current state and
needs (expected utilities or rewards). This paper introduces the new
hierarchical needs-driven Learning systems based on DAL and investigates the
implementation in the single-robot with a novel approach termed Bayesian Soft
Actor-Critic (BSAC). Then, we extend this topic to the Multi-Agent systems
(MAS), discussing the potential research fields and directions.
- Abstract(参考訳): このニーズは、システムが生き残り、進化するための必要性を記述し、エージェントが目標に向かって行動し、目的と行動への方向性を与える。
ニーズのMaslow階層に基づいて、エージェントは、アップグレードと進化の次の段階で発生する条件として、現在のレベルで一定の量のニーズを満たす必要がある。
特に、深層強化学習(dal)は、aiエージェント(ロボットなど)が行動や戦略を整理し最適化し、現在の状態やニーズ(期待されたユーティリティや報酬)に基づいて多様な戦略を開発するのに役立つ。
本稿では,DALに基づく新しい階層型要求駆動学習システムを紹介し,ベイジアンソフトアクター・クリティカル (BSAC) と呼ばれる新しいアプローチによる単一ロボットの実装について検討する。
そして、このトピックをマルチエージェントシステム(MAS)に拡張し、潜在的研究分野と方向性について議論する。
関連論文リスト
- Mathematics of multi-agent learning systems at the interface of game
theory and artificial intelligence [0.8049333067399385]
進化ゲーム理論と人工知能は、一見すると異なるように見える2つの分野であるが、それらは顕著なつながりと交差を持っている。
前者は集団における行動(または戦略)の進化に焦点を当て、個人が他人と対話し、模倣(または社会学習)に基づいて戦略を更新する。
一方後者は、機械学習アルゴリズムと(ディープ)ニューラルネットワークに重点を置いている。
論文 参考訳(メタデータ) (2024-03-09T17:36:54Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Balancing Autonomy and Alignment: A Multi-Dimensional Taxonomy for
Autonomous LLM-powered Multi-Agent Architectures [0.0]
大規模言語モデル(LLM)は、洗練された言語理解と生成能力を備えた人工知能の分野に革命をもたらした。
本稿では,LLMを用いた自律型マルチエージェントシステムが自律性とアライメントの動的相互作用をどのようにバランスさせるかを分析するために,総合的な多次元分類法を提案する。
論文 参考訳(メタデータ) (2023-10-05T16:37:29Z) - Conceptual Framework for Autonomous Cognitive Entities [0.9285295512807729]
本稿では,認知アーキテクチャの新しいフレームワークである自律認知エンティティモデルを紹介する。
このモデルは、大規模言語モデル(LLM)やマルチモーダル生成モデル(MMM)など、最新の生成AI技術の能力を活用するように設計されている。
ACEフレームワークには、障害の処理とアクションの適応のためのメカニズムも組み込まれているため、自律エージェントの堅牢性と柔軟性が向上する。
論文 参考訳(メタデータ) (2023-10-03T15:53:55Z) - Understanding the Application of Utility Theory in Robotics and
Artificial Intelligence: A Survey [5.168741399695988]
このユーティリティは、経済学、ゲーム理論、およびオペレーション研究において、ロボティクスとAI分野においても統一された概念である。
本稿では,エージェントのインタラクション間の相互関係を記述し,評価するためのユーティリティ指向の要求パラダイムを提案する。
論文 参考訳(メタデータ) (2023-06-15T18:55:48Z) - Intrinsic Motivation in Model-based Reinforcement Learning: A Brief
Review [77.34726150561087]
本稿では,エージェントが獲得した世界モデルに基づいて,本質的な動機付けを決定するための既存の手法について考察する。
提案した統合フレームワークは,学習を改善するために,世界モデルと本質的なモチベーションを用いてエージェントのアーキテクチャを記述する。
論文 参考訳(メタデータ) (2023-01-24T15:13:02Z) - Autonomous Open-Ended Learning of Tasks with Non-Stationary
Interdependencies [64.0476282000118]
固有のモチベーションは、目標間のトレーニング時間を適切に割り当てるタスクに依存しないシグナルを生成することが証明されている。
内在的に動機付けられたオープンエンドラーニングの分野におけるほとんどの研究は、目標が互いに独立しているシナリオに焦点を当てているが、相互依存タスクの自律的な獲得を研究するのはごくわずかである。
特に,タスク間の関係に関する情報をアーキテクチャのより高レベルなレベルで組み込むことの重要性を示す。
そして、自律的に取得したシーケンスを格納する新しい学習層を追加することで、前者を拡張する新しいシステムであるH-GRAILを紹介する。
論文 参考訳(メタデータ) (2022-05-16T10:43:01Z) - Interpretable Reinforcement Learning with Multilevel Subgoal Discovery [77.34726150561087]
離散環境のための新しい強化学習モデルを提案する。
モデルでは、エージェントは確率的ルールの形で環境に関する情報を学習する。
学習には報酬関数は不要であり、エージェントは達成するための第一の目標のみを与える必要がある。
論文 参考訳(メタデータ) (2022-02-15T14:04:44Z) - SPOTTER: Extending Symbolic Planning Operators through Targeted
Reinforcement Learning [24.663586662594703]
シンボリックプランニングモデルにより、意思決定エージェントは任意の方法でアクションをシーケンスし、ダイナミックドメインでさまざまな目標を達成できます。
強化学習アプローチはそのようなモデルを必要とせず、環境を探索して報酬を集めることでドメインダイナミクスを学ぶ。
我々は,当初エージェントが到達できない目標を達成するために必要な新たなオペレータを見つけることで,計画エージェント("spot")の強化とサポートにrlを使用するspotterという統合フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-24T00:31:02Z) - Automatic Curriculum Learning through Value Disagreement [95.19299356298876]
新しい未解決タスクを継続的に解決することが、多様な行動を学ぶための鍵です。
エージェントが複数の目標を達成する必要があるマルチタスク領域では、トレーニング目標の選択はサンプル効率に大きな影響を与える可能性がある。
そこで我々は,エージェントが解決すべき目標のための自動カリキュラムを作成することを提案する。
提案手法は,13のマルチゴールロボットタスクと5つのナビゲーションタスクにまたがって評価し,現在の最先端手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2020-06-17T03:58:25Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。