論文の概要: DANLI: Deliberative Agent for Following Natural Language Instructions
- arxiv url: http://arxiv.org/abs/2210.12485v1
- Date: Sat, 22 Oct 2022 15:57:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 14:23:14.462138
- Title: DANLI: Deliberative Agent for Following Natural Language Instructions
- Title(参考訳): DANLI: 自然言語命令に従うための検討エージェント
- Authors: Yichi Zhang, Jianing Yang, Jiayi Pan, Shane Storks, Nikhil Devraj,
Ziqiao Ma, Keunwoo Peter Yu, Yuwei Bao, Joyce Chai
- Abstract要約: 本稿では、過去の経験から得られた神経的・象徴的表現に基づいて推論と計画を適用するニューロシンボリック・リベレティブ・エージェントを提案する。
TEAChベンチマークでは,リアクティブベースラインよりも70%以上の改善が達成されている。
- 参考スコア(独自算出の注目度): 9.825482203664963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have seen an increasing amount of work on embodied AI agents
that can perform tasks by following human language instructions. However, most
of these agents are reactive, meaning that they simply learn and imitate
behaviors encountered in the training data. These reactive agents are
insufficient for long-horizon complex tasks. To address this limitation, we
propose a neuro-symbolic deliberative agent that, while following language
instructions, proactively applies reasoning and planning based on its neural
and symbolic representations acquired from past experience (e.g., natural
language and egocentric vision). We show that our deliberative agent achieves
greater than 70% improvement over reactive baselines on the challenging TEACh
benchmark. Moreover, the underlying reasoning and planning processes, together
with our modular framework, offer impressive transparency and explainability to
the behaviors of the agent. This enables an in-depth understanding of the
agent's capabilities, which shed light on challenges and opportunities for
future embodied agents for instruction following. The code is available at
https://github.com/sled-group/DANLI.
- Abstract(参考訳): 近年、人間の言語指示に従うことでタスクを実行できる具体化されたaiエージェントの開発が増えている。
しかし、これらのエージェントのほとんどは反応性があり、トレーニングデータで遭遇した振る舞いを学習し、模倣する。
これらの反応剤は長期の複雑なタスクには不十分である。
この制限に対処するために,言語指示に従って,過去の経験(自然言語や自我中心視など)から獲得した,その神経的・象徴的表現に基づいた推論と計画を積極的に適用する神経シンボリックな検討エージェントを提案する。
提案するエージェントは,challenge teachベンチマークにおいて,リアクティブベースラインよりも70%以上改善できることを示す。
さらに、基盤となる推論と計画プロセスは、モジュラーフレームワークとともに、エージェントの振る舞いに印象的な透明性と説明可能性を提供します。
これによってエージェントの能力が深く理解され、今後のインストラクションフォローのための具体化エージェントの課題と機会が明らかになった。
コードはhttps://github.com/sled-group/danliで入手できる。
関連論文リスト
- Proactive Agent: Shifting LLM Agents from Reactive Responses to Active Assistance [95.03771007780976]
我々は、人間の指示なしにタスクを予測および開始できるプロアクティブエージェントを開発するという課題に取り組む。
まず,実世界の人的活動を収集し,前向きなタスク予測を生成する。
これらの予測は、ヒトのアノテータによって受け入れられるか拒否されるかのどちらかとしてラベル付けされる。
ラベル付きデータは、人間の判断をシミュレートする報酬モデルをトレーニングするために使用される。
論文 参考訳(メタデータ) (2024-10-16T08:24:09Z) - Symbolic Learning Enables Self-Evolving Agents [55.625275970720374]
エージェントシンボリックラーニング(エージェントシンボリックラーニング)(エージェントシンボリックラーニング)は、言語エージェントが自分自身で最適化できるための体系的なフレームワークである。
エージェント記号学習は、コネクショナリズム学習における2つの基本的なアルゴリズムを模倣することにより、言語エージェント内のシンボルネットワークを最適化するように設計されている。
我々は、標準ベンチマークと複雑な実世界のタスクの両方で概念実証実験を行う。
論文 参考訳(メタデータ) (2024-06-26T17:59:18Z) - AgentGym: Evolving Large Language Model-based Agents across Diverse Environments [116.97648507802926]
大規模言語モデル(LLM)はそのようなエージェントを構築するための有望な基盤と考えられている。
我々は、自己進化能力を備えた一般機能 LLM ベースのエージェントを構築するための第一歩を踏み出す。
我々はAgentGymを提案する。AgentGymは、幅広い、リアルタイム、ユニフォーマット、並行エージェント探索のための様々な環境とタスクを特徴とする新しいフレームワークである。
論文 参考訳(メタデータ) (2024-06-06T15:15:41Z) - Exploring Autonomous Agents through the Lens of Large Language Models: A Review [0.0]
大規模言語モデル(LLM)は人工知能を変革し、自律エージェントがさまざまなドメインで多様なタスクを実行できるようにしている。
彼らは多目的性、人的価値のアライメント、幻覚、評価といった課題に直面している。
AgentBench、WebArena、ToolLLMといった評価プラットフォームは、複雑なシナリオでこれらのエージェントを評価する堅牢な方法を提供します。
論文 参考訳(メタデータ) (2024-04-05T22:59:02Z) - KnowAgent: Knowledge-Augmented Planning for LLM-Based Agents [54.09074527006576]
大規模言語モデル(LLM)は複雑な推論タスクにおいて大きな可能性を証明していますが、より高度な課題に取り組むには不十分です。
この不適切さは、主に言語エージェントのアクション知識が組み込まれていないことに起因する。
我々は、明示的な行動知識を取り入れることで、LLMの計画能力を高めるために設計された新しいアプローチであるKnowAgentを紹介する。
論文 参考訳(メタデータ) (2024-03-05T16:39:12Z) - tagE: Enabling an Embodied Agent to Understand Human Instructions [3.943519623674811]
我々は, Embodied Agent (tagE) のためのタスク・アンド・引数・グラウンドティング(タスク・アンド・引数・グラウンドディング)と呼ばれる新しいシステムを導入する。
本システムでは,自然言語で表現された複雑なタスク命令から一連のタスクを抽出するために,発明的なニューラルネットワークモデルを採用している。
提案モデルでは,入れ子デコードに富んだエンコーダ・デコーダ・フレームワークを用いて,複雑な命令からタスクとその引数を効果的に抽出する。
論文 参考訳(メタデータ) (2023-10-24T08:17:48Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Cognitive Architectures for Language Agents [44.89258267600489]
言語エージェントのための認知アーキテクチャ(CoALA)を提案する。
CoALAはモジュラーメモリコンポーネントを備えた言語エージェント、内部メモリと外部環境と相互作用する構造化されたアクションスペース、アクションを選択するための一般的な意思決定プロセスを記述する。
我々は、CoALAを使用して、振り返りによる調査と、最近の多くの作業の組織化を行い、より有能なエージェントに対する行動可能な方向を前向きに特定します。
論文 参考訳(メタデータ) (2023-09-05T17:56:20Z) - ExpeL: LLM Agents Are Experiential Learners [60.54312035818746]
実験学習エージェント(ExpeL)を導入し、パラメトリック更新を必要とせずにエージェント体験から学習できるようにする。
我々のエージェントは、経験を自律的に収集し、学習課題の集合から自然言語を用いて知識を抽出する。
推論において、エージェントは抽出された洞察と過去の経験をリコールし、情報的決定を行う。
論文 参考訳(メタデータ) (2023-08-20T03:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。