論文の概要: Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning
- arxiv url: http://arxiv.org/abs/2312.14878v1
- Date: Fri, 22 Dec 2023 17:57:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 14:05:22.464807
- Title: Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning
- Title(参考訳): Pangu-Agent:構造化推論による微調整可能なジェネリストエージェント
- Authors: Filippos Christianos, Georgios Papoudakis, Matthieu Zimmer, Thomas
Coste, Zhihao Wu, Jingxuan Chen, Khyati Khandelwal, James Doran, Xidong Feng,
Jiacheng Liu, Zheng Xiong, Yicheng Luo, Jianye Hao, Kun Shao, Haitham
Bou-Ammar, Jun Wang
- Abstract要約: 人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
- 参考スコア(独自算出の注目度): 50.47568731994238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key method for creating Artificial Intelligence (AI) agents is
Reinforcement Learning (RL). However, constructing a standalone RL policy that
maps perception to action directly encounters severe problems, chief among them
being its lack of generality across multiple tasks and the need for a large
amount of training data. The leading cause is that it cannot effectively
integrate prior information into the perception-action cycle when devising the
policy. Large language models (LLMs) emerged as a fundamental way to
incorporate cross-domain knowledge into AI agents but lack crucial learning and
adaptation toward specific decision problems. This paper presents a general
framework model for integrating and learning structured reasoning into AI
agents' policies. Our methodology is motivated by the modularity found in the
human brain. The framework utilises the construction of intrinsic and extrinsic
functions to add previous understandings of reasoning structures. It also
provides the adaptive ability to learn models inside every module or function,
consistent with the modular structure of cognitive processes. We describe the
framework in-depth and compare it with other AI pipelines and existing
frameworks. The paper explores practical applications, covering experiments
that show the effectiveness of our method. Our results indicate that AI agents
perform and adapt far better when organised reasoning and prior knowledge are
embedded. This opens the door to more resilient and general AI agent systems.
- Abstract(参考訳): 人工知能(AI)エージェントを作成するための重要な方法は強化学習(RL)である。
しかし、認識を行動にマッピングするスタンドアロンのRLポリシーの構築は、主に複数のタスクにまたがる汎用性の欠如と、大量のトレーニングデータの必要性など、深刻な問題に直面している。
主な原因は、政策を策定する際、事前情報を知覚行動サイクルに効果的に統合できないことである。
大規模言語モデル(LLM)は、クロスドメイン知識をAIエージェントに組み込む基本的な方法として登場したが、特定の決定問題に対する重要な学習と適応は欠如している。
本稿では、構造化推論をAIエージェントのポリシーに統合し学習するための一般的なフレームワークモデルを提案する。
私たちの方法論は、人間の脳にあるモジュラリティによって動機付けられています。
このフレームワークは、内在的および外在的関数の構築を利用して、推論構造に関する以前の理解を追加する。
また、認知プロセスのモジュール構造と一致して、すべてのモジュールや関数内でモデルを学習する適応能力も提供する。
フレームワークの詳細を説明し、他のAIパイプラインや既存のフレームワークと比較する。
本稿では,本手法の有効性を示す実験を取り上げ,実用的応用について検討する。
この結果から,組織的推論や事前知識が組み込まれている場合,AIエージェントの動作と適応性が向上することが示唆された。
これにより、レジリエントで一般的なaiエージェントシステムへのドアが開く。
関連論文リスト
- ADAM: An Embodied Causal Agent in Open-World Environments [3.2474668680608314]
Minecraftのエンボダイド因果エージェントであるADAMを紹介する。
ADAMは、オープンワールドを自律的にナビゲートし、マルチモーダルなコンテキストを認識し、因果世界知識を学び、生涯学習を通じて複雑なタスクに取り組むことができる。
論文 参考訳(メタデータ) (2024-10-29T16:32:01Z) - Symbolic Learning Enables Self-Evolving Agents [55.625275970720374]
エージェントシンボリックラーニング(エージェントシンボリックラーニング)(エージェントシンボリックラーニング)は、言語エージェントが自分自身で最適化できるための体系的なフレームワークである。
エージェント記号学習は、コネクショナリズム学習における2つの基本的なアルゴリズムを模倣することにより、言語エージェント内のシンボルネットワークを最適化するように設計されている。
我々は、標準ベンチマークと複雑な実世界のタスクの両方で概念実証実験を行う。
論文 参考訳(メタデータ) (2024-06-26T17:59:18Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Transferring Procedural Knowledge across Commonsense Tasks [17.929737518694616]
本稿では,AIモデルによる手続き的知識を新しい物語課題に透過的に伝達する能力について検討する。
我々は、最先端のモデリングアーキテクチャ、トレーニングレシスタンス、拡張戦略を統合する包括的なフレームワークであるLEAPを設計する。
ドメイン内および外部タスクによる我々の実験は、異なるアーキテクチャの相互作用、トレーニング体制、拡張戦略に関する洞察を明らかにします。
論文 参考訳(メタデータ) (2023-04-26T23:24:50Z) - OpenAGI: When LLM Meets Domain Experts [51.86179657467822]
ヒューマン・インテリジェンス(HI)は、複雑なタスクを解くための基本的なスキルの組み合わせに長けている。
この機能は人工知能(AI)にとって不可欠であり、包括的なAIエージェントに組み込まれるべきである。
マルチステップで現実的なタスクを解決するために設計されたオープンソースのプラットフォームであるOpenAGIを紹介します。
論文 参考訳(メタデータ) (2023-04-10T03:55:35Z) - Explainability Via Causal Self-Talk [9.149689942389923]
AIシステムの振る舞いを説明することは、実際には一般的に避けられる重要な問題である。
私たちは、すべてのデシダータを満たす効果的な方法を説明します。AIシステムをトレーニングして、それ自体の因果モデルを構築します。
この手法をシミュレーションした3次元環境に実装し、エージェントが忠実で意味論的に意味のある説明を生成する方法を示す。
論文 参考訳(メタデータ) (2022-11-17T23:17:01Z) - Toward a Reasoning and Learning Architecture for Ad Hoc Teamwork [4.454557728745761]
先行調整のないエージェントチームにおけるコラボレーションを指すアドホックなチームワークのためのアーキテクチャを提案する。
私たちのアーキテクチャは、知識ベースとデータ駆動推論と学習の原則を組み合わせています。
シミュレーションされたマルチエージェントのコラボレーションドメインであるFort Attackを使って、アーキテクチャが予期せぬ変更への適応をサポートすることを実証しています。
論文 参考訳(メタデータ) (2022-08-24T13:57:33Z) - Automated Machine Learning, Bounded Rationality, and Rational
Metareasoning [62.997667081978825]
有界合理性の観点から、自動機械学習(AutoML)と関連する問題を考察する。
リソース境界の下でアクションを取るには、エージェントがこれらのリソースを最適な方法で利用する方法を反映する必要がある。
論文 参考訳(メタデータ) (2021-09-10T09:10:20Z) - A Metamodel and Framework for AGI [3.198144010381572]
本稿では,応用AGIシステム構築のための知識保存メタモデルとフレームワークを実装したDeep Fusion Reasoning Engine(DFRE)を紹介する。
DFREは、対称関係と反対称関係の明確な区別など、いくつかの重要な基本的な知識特性を示す。
提案手法は, 教師なし物体の検出・認識において, 平均94%の精度を達成できることを示す。
論文 参考訳(メタデータ) (2020-08-28T23:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。