論文の概要: DANLI: Deliberative Agent for Following Natural Language Instructions
- arxiv url: http://arxiv.org/abs/2210.12485v1
- Date: Sat, 22 Oct 2022 15:57:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 14:23:14.462138
- Title: DANLI: Deliberative Agent for Following Natural Language Instructions
- Title(参考訳): DANLI: 自然言語命令に従うための検討エージェント
- Authors: Yichi Zhang, Jianing Yang, Jiayi Pan, Shane Storks, Nikhil Devraj,
Ziqiao Ma, Keunwoo Peter Yu, Yuwei Bao, Joyce Chai
- Abstract要約: 本稿では、過去の経験から得られた神経的・象徴的表現に基づいて推論と計画を適用するニューロシンボリック・リベレティブ・エージェントを提案する。
TEAChベンチマークでは,リアクティブベースラインよりも70%以上の改善が達成されている。
- 参考スコア(独自算出の注目度): 9.825482203664963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have seen an increasing amount of work on embodied AI agents
that can perform tasks by following human language instructions. However, most
of these agents are reactive, meaning that they simply learn and imitate
behaviors encountered in the training data. These reactive agents are
insufficient for long-horizon complex tasks. To address this limitation, we
propose a neuro-symbolic deliberative agent that, while following language
instructions, proactively applies reasoning and planning based on its neural
and symbolic representations acquired from past experience (e.g., natural
language and egocentric vision). We show that our deliberative agent achieves
greater than 70% improvement over reactive baselines on the challenging TEACh
benchmark. Moreover, the underlying reasoning and planning processes, together
with our modular framework, offer impressive transparency and explainability to
the behaviors of the agent. This enables an in-depth understanding of the
agent's capabilities, which shed light on challenges and opportunities for
future embodied agents for instruction following. The code is available at
https://github.com/sled-group/DANLI.
- Abstract(参考訳): 近年、人間の言語指示に従うことでタスクを実行できる具体化されたaiエージェントの開発が増えている。
しかし、これらのエージェントのほとんどは反応性があり、トレーニングデータで遭遇した振る舞いを学習し、模倣する。
これらの反応剤は長期の複雑なタスクには不十分である。
この制限に対処するために,言語指示に従って,過去の経験(自然言語や自我中心視など)から獲得した,その神経的・象徴的表現に基づいた推論と計画を積極的に適用する神経シンボリックな検討エージェントを提案する。
提案するエージェントは,challenge teachベンチマークにおいて,リアクティブベースラインよりも70%以上改善できることを示す。
さらに、基盤となる推論と計画プロセスは、モジュラーフレームワークとともに、エージェントの振る舞いに印象的な透明性と説明可能性を提供します。
これによってエージェントの能力が深く理解され、今後のインストラクションフォローのための具体化エージェントの課題と機会が明らかになった。
コードはhttps://github.com/sled-group/danliで入手できる。
関連論文リスト
- KnowAgent: Knowledge-Augmented Planning for LLM-Based Agents [54.09074527006576]
大規模言語モデル(LLM)は複雑な推論タスクにおいて大きな可能性を証明していますが、より高度な課題に取り組むには不十分です。
この不適切さは、主に言語エージェントのアクション知識が組み込まれていないことに起因する。
我々は、明示的な行動知識を取り入れることで、LLMの計画能力を高めるために設計された新しいアプローチであるKnowAgentを紹介する。
論文 参考訳(メタデータ) (2024-03-05T16:39:12Z) - tagE: Enabling an Embodied Agent to Understand Human Instructions [3.943519623674811]
我々は, Embodied Agent (tagE) のためのタスク・アンド・引数・グラウンドティング(タスク・アンド・引数・グラウンドディング)と呼ばれる新しいシステムを導入する。
本システムでは,自然言語で表現された複雑なタスク命令から一連のタスクを抽出するために,発明的なニューラルネットワークモデルを採用している。
提案モデルでは,入れ子デコードに富んだエンコーダ・デコーダ・フレームワークを用いて,複雑な命令からタスクとその引数を効果的に抽出する。
論文 参考訳(メタデータ) (2023-10-24T08:17:48Z) - FireAct: Toward Language Agent Fine-tuning [63.06306936820456]
我々は、言語エージェントを得るための微調整LMの見落としの方向について論じる。
GPT-4によって生成された500個のエージェント軌道を持つ微調整のLlama2-7Bは、77%のHotpotQA性能向上をもたらす。
本稿では,複数のタスクからのトラジェクトリとメソッドのプロンプトを併用した微調整LMの新たなアプローチであるFireActを提案する。
論文 参考訳(メタデータ) (2023-10-09T17:58:38Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Cognitive Architectures for Language Agents [49.0419215123851]
言語エージェントのための認知アーキテクチャ(CoALA)を提案する。
CoALAはモジュラーメモリコンポーネントを備えた言語エージェント、内部メモリと外部環境と相互作用する構造化されたアクションスペース、アクションを選択するための一般的な意思決定プロセスを記述する。
我々は、CoALAを使用して、振り返りによる調査と、最近の多くの作業の組織化を行い、より有能なエージェントに対する行動可能な方向を前向きに特定します。
論文 参考訳(メタデータ) (2023-09-05T17:56:20Z) - ExpeL: LLM Agents Are Experiential Learners [60.54312035818746]
実験学習エージェント(ExpeL)を導入し、パラメトリック更新を必要とせずにエージェント体験から学習できるようにする。
我々のエージェントは、経験を自律的に収集し、学習課題の集合から自然言語を用いて知識を抽出する。
推論において、エージェントは抽出された洞察と過去の経験をリコールし、情報的決定を行う。
論文 参考訳(メタデータ) (2023-08-20T03:03:34Z) - Learning Abstract and Transferable Representations for Planning [25.63560394067908]
本稿では,エージェントの環境状態の抽象化を自律的に学習するフレームワークを提案する。
これらの抽象化はタスクに依存しないので、新しいタスクを解決するために再利用することができる。
本稿では,これらの可搬型表現と問題固有の表現を組み合わせて,特定のタスクの音響記述を生成する方法について述べる。
論文 参考訳(メタデータ) (2022-05-04T14:40:04Z) - Explaining Reinforcement Learning Policies through Counterfactual
Trajectories [147.7246109100945]
人間の開発者は、RLエージェントがテスト時にうまく機能することを検証しなければならない。
本手法では, エージェントの挙動をより広い軌道分布で示すことにより, エージェントの挙動を分布変化下で表現する。
本研究では,2つのエージェント検証タスクのうちの1つに対して,ベースライン法よりも優れたスコアを得られることを示す。
論文 参考訳(メタデータ) (2022-01-29T00:52:37Z) - Inherently Explainable Reinforcement Learning in Natural Language [14.117921448623342]
本稿では,本質的に説明可能な強化学習エージェントの開発に焦点をあてる。
この階層的説明可能な強化学習エージェントは、インタラクティブフィクション、テキストベースのゲーム環境で動作する。
私たちのエージェントは、説明責任を第一級市民として扱うように設計されています。
論文 参考訳(メタデータ) (2021-12-16T14:24:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。